[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5638791B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5638791B2
JP5638791B2 JP2009268135A JP2009268135A JP5638791B2 JP 5638791 B2 JP5638791 B2 JP 5638791B2 JP 2009268135 A JP2009268135 A JP 2009268135A JP 2009268135 A JP2009268135 A JP 2009268135A JP 5638791 B2 JP5638791 B2 JP 5638791B2
Authority
JP
Japan
Prior art keywords
image
imaging
display
unit
interchangeable lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009268135A
Other languages
Japanese (ja)
Other versions
JP2011112808A (en
Inventor
翼 笠井
翼 笠井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2009268135A priority Critical patent/JP5638791B2/en
Priority to US12/953,199 priority patent/US8780185B2/en
Priority to CN 201010560614 priority patent/CN102081294B/en
Publication of JP2011112808A publication Critical patent/JP2011112808A/en
Priority to US14/283,957 priority patent/US20140368616A1/en
Application granted granted Critical
Publication of JP5638791B2 publication Critical patent/JP5638791B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Viewfinders (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Structure And Mechanism Of Cameras (AREA)

Description

本発明は、2次元及び3次元画像の撮影及び表示を可能にする撮像装置に関する。   The present invention relates to an imaging apparatus capable of capturing and displaying two-dimensional and three-dimensional images.

近年、デジタルカメラなどの撮影機能付き携帯機器は、画像処理を駆使して、様々な苦手撮影シーンを克服している。また、近年、映画産業では、臨場感を重んじた3D(3次元)化の波があり、テレビ業界もそれに追随して3D表示機器は普及傾向にある。   In recent years, portable devices with a photographing function such as a digital camera have overcome various poor photographing scenes by making full use of image processing. In recent years, there has been a 3D (three-dimensional) wave in the movie industry with a sense of realism, and the 3D display devices are also becoming popular following the television industry.

デジタルカメラ等の民生用の撮影機器においても、3D撮影可能な装置が開発されている。画像を立体的情報を含んで撮影記録し、これを再生観察する方式には多種多様な提案がある。例えば、特許文献1においては、レンズからの入射光を複数の光束に分割した後、入射指向性の異なる複数の撮像素子に入射させることにより、視差を有する画像を作成する技術が開示されている。   In consumer photography equipment such as digital cameras, devices capable of 3D photography have been developed. There are a wide variety of proposals for methods of shooting and recording images including three-dimensional information and reproducing and observing them. For example, Patent Document 1 discloses a technique for creating an image having parallax by dividing incident light from a lens into a plurality of light beams and then entering the light into a plurality of imaging elements having different incident directivities. .

人間が立体感を得る要因には様々なものがあるが、一般的には、両眼視差、運動視差、両眼輻輳、ピント、相対的な大きさといった情報を元に立体感を得ているといわれている。こうした情報の中で人工的に立体映像を提供する方法では多くの場合、立体感を得るために最も大きい要因となる両眼視差を用いる。   There are various factors that enable humans to obtain a three-dimensional effect. In general, a three-dimensional effect is obtained based on information such as binocular parallax, motion parallax, binocular vergence, focus, and relative size. It is said that. In such information, methods for providing stereoscopic images artificially often use binocular parallax, which is the largest factor for obtaining a stereoscopic effect.

特開2006−165601号公報JP 2006-165601 A

このように、立体視を可能にするためには、右目用の画像と左目用の画像、即ち、左右両眼の視点に対応する視差を持った2画像を撮像する必要がある。右目用の画像と左目用の画像とは、視差に応じて相互にずれを有する画像である。このため、カメラ撮影時において3D表示を確認しながら撮影しなければ、所望の視野角が得られるとは限らない。   Thus, in order to enable stereoscopic viewing, it is necessary to capture an image for the right eye and an image for the left eye, that is, two images having parallax corresponding to the viewpoints of the left and right eyes. The right-eye image and the left-eye image are images that are shifted from each other according to the parallax. For this reason, a desired viewing angle is not always obtained unless the camera is photographed while confirming the 3D display.

また、右目用及び左目用のレンズの距離、被写体までの距離等の種々の要因によって、肉眼によって人が知覚する立体感と撮影によって得られる立体感にはずれがある。従って、撮影者が希望する立体感が得られるように撮影を行うためには、カメラ撮影時において3D表示を確認しながらの撮影が必要である。   Further, due to various factors such as the distance between the right and left eye lenses and the distance to the subject, there is a difference between the stereoscopic effect perceived by the human eye and the stereoscopic effect obtained by photographing. Therefore, in order to perform shooting so as to obtain the stereoscopic effect desired by the photographer, it is necessary to perform shooting while confirming 3D display during camera shooting.

しかしながら、特許文献1の発明は、3D画像の撮影記録を可能にする技術であり、撮影しながら3D表示を行うことはできない。また、記録された立体画像を3D表示する装置は存在するが、被写体を3D撮影する場合に、撮影しようとする3次元画像を3D表示によって確認しながら、2次元画像の撮像時と同様の容易さで撮影を行う撮像装置は開発されていない。   However, the invention of Patent Document 1 is a technique that enables shooting and recording of 3D images, and cannot perform 3D display while shooting. In addition, there are devices that display recorded 3D images in 3D, but when shooting a subject in 3D, it is as easy as capturing a 2D image while confirming the 3D image to be shot by 3D display. Now, an imaging apparatus for taking pictures has not been developed.

しかも、従来、3D表示を見る場合には、右目用画像と左目用画像とを夫々右目又は左目に見せるために、視者にメガネ型の装置の装着を強いる必要があった。また、レンティキュラレンズ等を用いて右目又は左目に選択的に右目用画像又は左目用画像を見せる画像分離法では、視者の位置が限定されると共に解像度が低くなってしまう。この方式の表示装置では2D表示時であっても、十分な解像度を得ることはできない。   Moreover, conventionally, when viewing 3D display, it has been necessary to force the viewer to wear a glasses-type device in order to show the right-eye image and the left-eye image respectively to the right eye or the left eye. Further, in the image separation method in which the right eye image or the left eye image is selectively displayed using the lenticular lens or the like, the position of the viewer is limited and the resolution is lowered. In this type of display device, sufficient resolution cannot be obtained even during 2D display.

また、特殊な液晶パネルを用いて、左眼用画像と右目用画像の表示方向を変化させ、時分割方式で左右の画像を交互に表示することによって裸眼立体視を実現するシステムも開発されている。この方式では時分割で表示するために解像度を犠牲にすることはない。しかしながら、この方式では、2D表示時に比べて、フレームレートが1/2に低下してしまう。一般的な人間でも、20msの表示遅延を認知できることから、フレームレートが1/2になると、リアルタイム性が著しく損なわれてしまうという欠点がある。   In addition, a system has been developed that realizes autostereoscopic vision by changing the display direction of the left-eye image and right-eye image using a special liquid crystal panel and alternately displaying the left and right images in a time-division manner. Yes. In this method, the resolution is not sacrificed because the time-division display is performed. However, in this method, the frame rate is reduced to ½ compared to 2D display. Since a general human can recognize a display delay of 20 ms, there is a disadvantage that when the frame rate is halved, the real-time property is significantly impaired.

また、3D撮影の特殊性から、1台の装置で3次元撮影と2次元撮影とを容易に切換え可能な撮像装置も開発されていない。   In addition, an imaging apparatus that can easily switch between 3D imaging and 2D imaging with a single apparatus has not been developed due to the particularity of 3D imaging.

また、3D画像を作成する場合には、右目用及び左目用のレンズを結ぶ基線が水平となるように撮像系の回転角度を保たなければならず、撮像系を90度回転させて基線を垂直にして撮影した場合には、3D画像を得ることができない。   When creating a 3D image, the rotation angle of the imaging system must be maintained so that the base line connecting the right-eye lens and the left-eye lens is horizontal, and the base line is rotated by 90 degrees. When shooting vertically, a 3D image cannot be obtained.

本発明は、撮影しようとする3次元画像を確認しながら3次元画像の撮影を可能にすると共に、3次元画像及び2次元画像の撮影を容易に行うことができる撮像装置を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide an imaging apparatus that can capture a 3D image while confirming a 3D image to be captured and can easily capture a 3D image and a 2D image. And

本発明の一態様の撮像装置は、本体と、撮像部と、左右の目に対応した左右各々の画像の水平方向の長さが鉛直方向の長さよりも長い横長の左右の画像の撮像を行うことが可能な第1の立体撮影用交換レンズと、左右の目に対応した左右各々の画像の鉛直方向の長さが水平方向の長さよりも長い縦長の左右の画像の撮像を行うことが可能な第2の立体撮影用交換レンズと、通常撮影用交換レンズとを上記本体に対して選択的に取り付け可能な第1の接続部と、左右の目に対応した2つの表示部を有して複数の画像を表示可能な立体画像表示用ファインダと、単一の表示部を有して単一の画像を表示可能な通常画像表示用ファインダとを上記本体に対して選択的に取り付け可能な第2の接続部と、上記第1の接続部に、上記第1の立体撮影用交換レンズ、上記第2の立体撮影用交換レンズまたは上記通常撮影用交換レンズのうちいずれか1つの交換レンズが接続された際には、当該接続された交換レンズからの情報と、上記第2の接続部に、上記立体画像表示用ファインダまたは上記通常画像表示用ファインダのいずれかのファインダが接続された際には、当該接続されたファインダからの情報との情報に基づいて、上記第1の接続部に接続された当該交換レンズを介して上記撮像部によって撮像された撮像画像の、上記第2の接続部に接続された当該ファインダへの表示を制御する表示制御部と、を具備し、上記第1の立体撮影用交換レンズが上記第1の接続部に接続された場合には上記撮像部から左右の目に対応した左右各々の画像の水平方向の長さが鉛直方向の長さよりも長い横長の前記左右の撮像画像を取得可能とする一方、上記第2の立体撮影用交換レンズが上記第1の接続部に接続された場合には上記撮像部から左右の目に対応した左右各々の画像の鉛直方向の長さが水平方向の長さよりも長い縦長の前記左右の撮像画像を取得可能とし、上記表示制御部は、上記第2の接続部に上記立体画像表示用ファインダが接続された状態において上記横長の前記左右の撮像画像が取得された場合は当該画像全体を当該立体画像表示用ファインダに対して表示せしめる一方、上記縦長の撮像画像が取得された場合は当該画像の一部を当該立体画像表示用ファインダに対して表示せしめる。 One aspect of the image pickup apparatus of the present invention performs a body, an imaging unit, an imaging horizontal length vertically long horizontally long right and left images than the length of the corresponding left and right each image to the left and right eyes The first interchangeable lens for stereo photography and the left and right images corresponding to the left and right eyes can capture a vertically long left and right image that is longer than the horizontal length. A first connecting portion that can selectively attach the second interchangeable lens for stereoscopic photographing and the interchangeable lens for normal photographing to the main body, and two display portions corresponding to the left and right eyes. A stereoscopic image display finder capable of displaying a plurality of images and a normal image display finder having a single display unit and capable of displaying a single image can be selectively attached to the main body . and second connecting portions, to the first connecting portion, the first three-dimensional imaging exchange When any one of the lens, the second stereoscopic imaging interchangeable lens, or the normal imaging interchangeable lens is connected, information from the connected interchangeable lens and the second connection When the finder of either the stereoscopic image display finder or the normal image display finder is connected to the unit, the first connection unit is based on information from the connected finder. A display control unit that controls display on the finder connected to the second connection unit of a captured image captured by the imaging unit via the interchangeable lens connected to When one stereoscopic photographing interchangeable lens is connected to the first connection portion, the horizontal length of the left and right images corresponding to the left and right eyes from the imaging portion is longer than the vertical length. While it is possible to acquire the long left and right captured images, when the second interchangeable lens for stereoscopic photography is connected to the first connecting portion, the left and right corresponding to the left and right eyes from the imaging portion The left and right captured images having a vertical length longer than the horizontal length can be acquired, and the display control unit has the stereoscopic image display finder connected to the second connection unit. In the state, when the horizontally long captured image of the left and right is acquired, the entire image is displayed on the stereoscopic image display finder, while when the vertically long captured image is acquired, a part of the image is displayed. The image is displayed on the stereoscopic image display finder.

本発明によれば、撮影しようとする3次元画像を確認しながら3次元画像の撮影を可能にすると共に、3次元画像及び2次元画像の撮影を容易に行うことができるという効果を有する。   According to the present invention, it is possible to take a 3D image while confirming a 3D image to be taken, and to easily take a 3D image and a 2D image.

本発明の第1の実施の形態に係る撮像装置の回路構成を示すブロック図。1 is a block diagram showing a circuit configuration of an imaging apparatus according to a first embodiment of the present invention. 交換レンズ及び電子ファインダが取り付けられた撮像装置の外観を示す説明図。Explanatory drawing which shows the external appearance of the imaging device with which the interchangeable lens and the electronic viewfinder were attached. 交換レンズ12及び電子ファインダ13と構図との関係を説明するための説明図。Explanatory drawing for demonstrating the relationship between the interchangeable lens 12, the electronic finder 13, and a composition. 交換レンズ12及び電子ファインダ13と構図との関係を説明するための説明図。Explanatory drawing for demonstrating the relationship between the interchangeable lens 12, the electronic finder 13, and a composition. 交換レンズ12に採用される光学系の例を示す説明図。FIG. 3 is an explanatory diagram showing an example of an optical system employed in the interchangeable lens 12. 交換レンズ12に採用される光学系の例を示す説明図。FIG. 3 is an explanatory diagram showing an example of an optical system employed in the interchangeable lens 12. 交換レンズ12に採用される光学系の例を示す説明図。FIG. 3 is an explanatory diagram showing an example of an optical system employed in the interchangeable lens 12. カメラ制御を示すフローチャート。The flowchart which shows camera control. 図8中のステップS14のファインダ制御の具体的なフローを示すフローチャート。The flowchart which shows the specific flow of finder control of step S14 in FIG. ステップS23〜S25の処理を具体的に説明するための説明図。Explanatory drawing for demonstrating the process of step S23-S25 concretely. ステップS23〜S25の処理を具体的に説明するための説明図。Explanatory drawing for demonstrating the process of step S23-S25 concretely. ステップS31の処理を具体的に説明するための説明図。Explanatory drawing for demonstrating the process of step S31 concretely. 本発明の第2の実施の形態を示すフローチャート。The flowchart which shows the 2nd Embodiment of this invention. 本発明の第2の実施の形態において採用する交換レンズを説明するための説明図。Explanatory drawing for demonstrating the interchangeable lens employ | adopted in the 2nd Embodiment of this invention. 撮像素子の撮像面上に設定する右目用及び左目用画像領域を説明するための説明図。Explanatory drawing for demonstrating the image area | region for right eyes and left eyes set on the imaging surface of an image pick-up element. 本発明の第3の実施の形態において、交換レンズ12及び電子部品130との接続を説明するための説明図。Explanatory drawing for demonstrating the connection with the interchangeable lens 12 and the electronic component 130 in the 3rd Embodiment of this invention. 本発明の第3の実施の形態を説明するための説明図。Explanatory drawing for demonstrating the 3rd Embodiment of this invention. 本発明の第3の実施の形態の動作を説明するためのフローチャート。The flowchart for demonstrating the operation | movement of the 3rd Embodiment of this invention.

以下、図面を参照して本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
図1は本発明の第1の実施の形態に係る撮像装置の回路構成を示すブロック図である。また、図2は交換レンズ及び電子ファインダが取り付けられた撮像装置の外観を示す説明図である。
(First embodiment)
FIG. 1 is a block diagram showing a circuit configuration of an imaging apparatus according to the first embodiment of the present invention. FIG. 2 is an explanatory view showing the appearance of an imaging apparatus to which an interchangeable lens and an electronic viewfinder are attached.

図2において、撮像装置10は、撮像装置本体11の前面に図示しないレンズマウントを有して交換レンズ12を取り付け可能である。また、撮像装置本体11は上端に図示しないアクセサリーシューを有して電子ファインダ13を取り付け可能である。   In FIG. 2, the imaging apparatus 10 has a lens mount (not shown) on the front surface of the imaging apparatus main body 11 and can be attached with an interchangeable lens 12. Moreover, the imaging apparatus main body 11 has an accessory shoe (not shown) at the upper end, and an electronic viewfinder 13 can be attached.

(回路構成)
撮像装置10の撮像装置本体11には本体回路部20が内蔵されている。図1に示すように、本体回路部20には、通信部22,23が設けられている。一方、本実施の形態において採用する交換レンズ12には交換レンズ回路部40が内蔵されており、電子ファインダ13には電子ファインダ回路部50が内蔵されている。これらの交換レンズ回路部40及び電子ファインダ回路部50にも夫々通信部42,52が設けられている。本体回路部20の通信部22,23は、夫々、交換レンズ回路部40の通信部42及び電子ファインダ回路部50の通信部52との間で、相互に情報を送受することができるようになっている。
(Circuit configuration)
The imaging device body 11 of the imaging device 10 includes a body circuit unit 20. As shown in FIG. 1, the main body circuit unit 20 is provided with communication units 22 and 23. On the other hand, the interchangeable lens 12 employed in the present embodiment has a built-in interchangeable lens circuit unit 40, and the electronic finder 13 has a built-in electronic finder circuit unit 50. The interchangeable lens circuit unit 40 and the electronic viewfinder circuit unit 50 are also provided with communication units 42 and 52, respectively. The communication units 22 and 23 of the main body circuit unit 20 can exchange information with each other between the communication unit 42 of the interchangeable lens circuit unit 40 and the communication unit 52 of the electronic viewfinder circuit unit 50. ing.

本実施の形態においては、交換レンズ12としては、2つの撮像レンズ12R,12L(図2参照)を有して右目用画像及び左目用画像を撮像可能な3D撮影用のものと、1つの撮像レンズによって2D撮影が可能な2D撮影用のものとのいずれも採用可能である。   In the present embodiment, the interchangeable lens 12 includes two imaging lenses 12R and 12L (see FIG. 2) and can capture a right-eye image and a left-eye image, and a single imaging lens. Any of those for 2D shooting that can perform 2D shooting with a lens can be employed.

交換レンズ回路部40のレンズ制御部41は、レンズ情報を記憶するレンズ情報記憶部43を有している。なお、図1では、交換レンズ回路部40として、2つ撮像レンズ12R,12Lを夫々含む2つのレンズ部44R,44Lを有する3D撮影用の例を示している。レンズ情報としては、レンズ部の個数の情報及び光学系の情報を含む。レンズ制御部41は、本体回路部20に制御されて、レンズ部44R,44Lを駆動して撮像レンズ12R,12Lの絞り、ピント、ズーム等を制御することができるようになっている。   The lens control unit 41 of the interchangeable lens circuit unit 40 includes a lens information storage unit 43 that stores lens information. FIG. 1 shows an example for 3D imaging having two lens portions 44R and 44L each including two imaging lenses 12R and 12L as the interchangeable lens circuit portion 40. The lens information includes information on the number of lens units and information on the optical system. The lens control unit 41 can be controlled by the main body circuit unit 20 to drive the lens units 44R and 44L to control the aperture, focus, zoom, and the like of the imaging lenses 12R and 12L.

レンズ制御部41の通信部42は、所定の伝送路を介して本体回路部20の通信部22との間で情報の送受を行う。レンズ制御部41は、本体回路部20の通信部22との間の通信が確立すると、レンズ情報記憶部43から読み出したレンズ情報を通信部42によって本体回路部20に送信させることができる。これにより、本体回路部20は、交換レンズ12が2つの撮像レンズ12R,12Lを有することや、各撮像レンズ12R,12Lからの被写体の光学像が後述する撮像素子の撮像面上のいずれの領域に結像するかを認識することができる。   The communication unit 42 of the lens control unit 41 transmits and receives information to and from the communication unit 22 of the main body circuit unit 20 via a predetermined transmission path. When communication with the communication unit 22 of the main body circuit unit 20 is established, the lens control unit 41 can cause the main body circuit unit 20 to transmit lens information read from the lens information storage unit 43 by the communication unit 42. As a result, the main body circuit unit 20 includes the interchangeable lens 12 having the two imaging lenses 12R and 12L, and the optical image of the subject from each of the imaging lenses 12R and 12L in any region on the imaging surface of the imaging device described later. Can be recognized.

一方、本実施の形態においては、電子ファインダ13としては、2つの表示部55R,55Lを有する表示装置55によって右目用画像及び左目用画像を夫々表示可能な3D表示用のファインダを採用することができる。更に、電子ファインダとしては、1つの表示部のみを有する2D表示用のファインダ等の種々のファインダを採用可能である。なお、図1では、3D表示用のファインダの例を示している。3D表示用の電子ファインダは、図2に示すように、表示部55R,55L同士は、例えば人の両目の間隔に対応して離間して設けられている。なお、表示部55R,55Lは、有機ELやLCDによって構成することができる。   On the other hand, in the present embodiment, as the electronic finder 13, a 3D display finder that can display the right-eye image and the left-eye image by the display device 55 having the two display portions 55R and 55L is adopted. it can. Furthermore, as the electronic finder, various types of finders such as a 2D display finder having only one display unit can be used. FIG. 1 shows an example of a finder for 3D display. In the electronic viewfinder for 3D display, as shown in FIG. 2, the display units 55R and 55L are provided so as to be spaced apart from each other, for example, corresponding to the distance between human eyes. The display units 55R and 55L can be configured by an organic EL or LCD.

電子ファインダ回路部50のファインダ制御部51には、ファインダ情報記憶部53が設けられる。ファインダ情報記憶部53は、電子ファインダ13の表示装置55に関するファインダ情報を保持している。ファインダ情報によって、表示装置55が1つの表示部を有するか2つの表示部を有するかが示される。   A finder information storage unit 53 is provided in the finder control unit 51 of the electronic finder circuit unit 50. The finder information storage unit 53 holds finder information related to the display device 55 of the electronic finder 13. The finder information indicates whether the display device 55 has one display unit or two display units.

ファインダ制御部51の通信部52は、所定の伝送路を介して本体回路部20の通信部23との間で情報の送受を行う。ファインダ制御部51は、本体回路部20の通信部23との間の通信が確立すると、ファインダ情報記憶部53に記憶されているファインダ情報を通信部52によって本体回路部20に送信させることができる。これにより、本体回路部20は、表示装置55が2つの表示部55R,55Lを有することを認識することができる。   The communication unit 52 of the finder control unit 51 transmits and receives information to and from the communication unit 23 of the main body circuit unit 20 through a predetermined transmission path. When communication with the communication unit 23 of the main body circuit unit 20 is established, the finder control unit 51 can cause the communication unit 52 to transmit the finder information stored in the finder information storage unit 53 to the main body circuit unit 20. . Thereby, the main body circuit unit 20 can recognize that the display device 55 has the two display units 55R and 55L.

ファインダ制御部51は、本体回路部20から画像情報が与えられると、表示駆動部54によって画像情報に基づく画像信号を生成する。本体回路部20は、表示装置55における表示の仕方についての表示制御情報も出力しており、表示駆動部54は表示制御情報に基づいて画像信号を表示装置55に与えて表示させる。   When image information is given from the main body circuit unit 20, the finder control unit 51 generates an image signal based on the image information by the display driving unit 54. The main body circuit unit 20 also outputs display control information on how to display on the display device 55, and the display driving unit 54 gives an image signal to the display device 55 based on the display control information for display.

例えば、表示駆動部54は、本体回路部20から3D表示用の画像情報が与えられると、表示制御情報に基づいて、右目用の画像信号を表示部55Rに与え、左目用の画像信号を表示部55Lに与える。これにより、電子ファインダ13の各表示部55R,55Lを夫々視者の両目で覗くことにより、3D画像の観察が可能である。   For example, when 3D display image information is given from the main body circuit unit 20, the display driving unit 54 gives a right-eye image signal to the display unit 55R and displays a left-eye image signal based on the display control information. To part 55L. As a result, a 3D image can be observed by looking through the display portions 55R and 55L of the electronic viewfinder 13 with both eyes of the viewer.

本体回路部20は、CCDやCMOSセンサ等の撮像素子によって構成された撮像部24を有している。交換レンズ12からの被写体の光学像は、撮像部24を構成する撮像素子の撮像面に結像するようになっている。この撮像部24は、信号処理及び制御部21によって駆動制御される。信号処理及び制御部21は、撮像部24を構成する撮像素子の撮像面の情報を有している。信号処理及び制御部21は、撮像面の情報及びレンズ情報に基づいて、撮像部24に撮像素子の駆動信号を出力すると共に、撮像素子が光学像を光電変換して得た画像信号を取り込む。また、本体回路部20には、音声収録部25が設けられており、撮像装置10の外部の音を収音して音声信号を信号処理及び制御部21に出力するようになっている。   The main body circuit unit 20 includes an imaging unit 24 configured by an imaging element such as a CCD or a CMOS sensor. The optical image of the subject from the interchangeable lens 12 is formed on the imaging surface of the imaging device that constitutes the imaging unit 24. The imaging unit 24 is driven and controlled by the signal processing and control unit 21. The signal processing and control unit 21 has information on the imaging surface of the imaging element that constitutes the imaging unit 24. The signal processing and control unit 21 outputs a driving signal of the image sensor to the image capturing unit 24 based on the information on the imaging surface and the lens information, and captures an image signal obtained by photoelectric conversion of the optical image by the image sensor. The main body circuit unit 20 is provided with an audio recording unit 25, which collects sound outside the imaging apparatus 10 and outputs an audio signal to the signal processing and control unit 21.

信号処理及び制御部21は、撮像素子の光電変換によって得られた画像信号に対して、所定の信号処理、例えば、色信号生成処理、マトリックス変換処理、その他各種のデジタル処理を行う。本体回路部20は、画像信号及び音声信号等の記録に際して、符号化処理を施して圧縮した画像情報及び音声情報等を出力することもできるようになっている。   The signal processing and control unit 21 performs predetermined signal processing, for example, color signal generation processing, matrix conversion processing, and other various digital processing on the image signal obtained by photoelectric conversion of the image sensor. The main body circuit unit 20 can output image information, audio information, and the like compressed by performing an encoding process when recording image signals, audio signals, and the like.

信号処理及び制御部21の左右画像信号生成部21aは、撮像面の情報及びレンズ情報に基づいて、撮像部24の撮像面に、レンズ部44R,44Lからの入射光の範囲に応じた画像領域を設定するようになっている。例えば、レンズ情報によって交換レンズが2つのレンズ部を有することが示された場合には、左右画像信号生成部21aは、撮像部24の撮像面を、各レンズ部からの入射光の入射範囲に応じて夫々右目用画像領域と左目用画像領域とに分割し、各画像領域からの画像信号を右目用画像信号又は左目用画像信号として信号処理を行うようになっている。   The left and right image signal generation unit 21a of the signal processing and control unit 21 has an image area corresponding to the range of incident light from the lens units 44R and 44L on the imaging surface of the imaging unit 24 based on the information on the imaging surface and the lens information. Is set. For example, when the lens information indicates that the interchangeable lens has two lens portions, the left and right image signal generation unit 21a sets the imaging surface of the imaging unit 24 within the incident range of incident light from each lens unit. Accordingly, the image area is divided into a right-eye image area and a left-eye image area, and signal processing is performed using the image signal from each image area as a right-eye image signal or a left-eye image signal.

なお、左右画像信号生成部21aは、撮像面の情報及びレンズ情報だけでなく、絞り、ズーム処理等の処理に応じて画像領域を設定してもよい。   Note that the left and right image signal generation unit 21a may set an image area according to processing such as aperture and zoom processing as well as information on the imaging surface and lens information.

また、本体回路部20には、時計部27、操作判定部28も配設されている。時計部27は信号処理及び制御部21が用いる時間情報を発生する。操作判定部28は、撮像装置10に設けられた図示しないレリーズスイッチや撮影モード設定等の各種スイッチに対するユーザ操作に基づく操作信号を発生して、信号処理及び制御部21に出力するようになっている。信号処理及び制御部21は、操作信号に基づいて、各部を制御する。   The main body circuit unit 20 is also provided with a clock unit 27 and an operation determination unit 28. The clock unit 27 generates time information used by the signal processing and control unit 21. The operation determination unit 28 generates an operation signal based on a user operation with respect to various switches such as a release switch (not shown) provided in the imaging apparatus 10 and a shooting mode setting, and outputs the operation signal to the signal processing and control unit 21. Yes. The signal processing and control unit 21 controls each unit based on the operation signal.

また、本体回路部20には、記録再生部26及び本体表示部30が設けられている。記録再生部26は、信号処理及び制御部21からの画像情報及び音声情報を図示しない記録媒体に記録することができるようになっている。なお、記録再生部26としては例えばカードインターフェースを採用することができ、記録再生部26はメモリカード等に画像情報及び音声情報等を記録可能である。また、記録再生部26は、記録媒体に記録された画像情報及び音声情報を読み出して信号処理及び制御部21に供給することができる。信号処理及び制御部21は、記録再生部26からの画像情報及び音声情報を復号化して、画像信号及び音声信号を得ることができるようになっている。   The main body circuit unit 20 includes a recording / reproducing unit 26 and a main body display unit 30. The recording / reproducing unit 26 can record image information and audio information from the signal processing and control unit 21 on a recording medium (not shown). For example, a card interface can be employed as the recording / reproducing unit 26, and the recording / reproducing unit 26 can record image information, audio information, and the like on a memory card or the like. Further, the recording / reproducing unit 26 can read out the image information and the audio information recorded on the recording medium and supply them to the signal processing and control unit 21. The signal processing and control unit 21 can decode the image information and audio information from the recording / reproducing unit 26 to obtain an image signal and an audio signal.

本体表示部30は、撮像部24からの撮像画像や記録再生部26からの再生画像が信号処理及び制御部21から供給されて、これらの画像表示を行うことができる。また、本体表示部30は信号処理及び制御部21に制御されて、撮像装置10の操作を行うためのメニュー表示等を表示することもできるようになっている。   The main body display unit 30 can display the captured image from the imaging unit 24 and the reproduced image from the recording / reproducing unit 26 from the signal processing and control unit 21 to display these images. Further, the main body display unit 30 can be controlled by the signal processing and control unit 21 to display a menu display or the like for operating the imaging device 10.

更に、本実施の形態においては、本体回路部20には、縦横検知部29が設けられている。縦横検知部29は、撮像装置本体11の向きを検知することができるようになっており、検知結果の縦横検知情報を信号処理及び制御部21に出力する。   Furthermore, in the present embodiment, the main body circuit unit 20 is provided with a vertical / horizontal detection unit 29. The vertical / horizontal detection unit 29 can detect the orientation of the imaging apparatus main body 11, and outputs the vertical / horizontal detection information of the detection result to the signal processing and control unit 21.

信号処理及び制御部21は、本体回路部20内の各部を制御すると共に、通信部22,23を介して交換レンズ12及び電子ファインダ13を制御することができる。信号処理及び制御部21は、交換レンズ12からのレンズ情報、電子ファインダ13からのファインダ情報及び縦横検知情報に基づいて、表示制御情報を生成して最適なファインダ表示を行うようになっている。   The signal processing and control unit 21 can control each unit in the main body circuit unit 20 and can control the interchangeable lens 12 and the electronic viewfinder 13 via the communication units 22 and 23. The signal processing and control unit 21 generates display control information based on the lens information from the interchangeable lens 12, the finder information from the electronic finder 13, and the vertical / horizontal detection information to perform optimal finder display.

図3及び図4は交換レンズ12及び電子ファインダ13と構図との関係を説明するための説明図である。   3 and 4 are explanatory diagrams for explaining the relationship between the interchangeable lens 12 and the electronic viewfinder 13 and the composition.

図3(a)は図1及び図2に対応する撮像装置10、交換レンズ12及び電子ファインダ13を示している。撮像装置本体11の前面の図示しないレンズマウントには交換レンズ12が取り付けられている。交換レンズ12は2つの撮像レンズ部12R,12Lを有する3D撮影用である。撮像装置本体11の上端にはアクセサリーシュー61が設けられている。電子ファインダ13は、アクセサリーシュー61に着脱自在に取り付けるための取付部65を有する。取付部65には、2つの表示部55R,55Lを保持する保持部66が回動自在に取り付けられている。   FIG. 3A shows the imaging device 10, the interchangeable lens 12, and the electronic viewfinder 13 corresponding to FIGS. 1 and 2. An interchangeable lens 12 is attached to a lens mount (not shown) on the front surface of the imaging apparatus main body 11. The interchangeable lens 12 is for 3D photography having two imaging lens portions 12R and 12L. An accessory shoe 61 is provided at the upper end of the imaging apparatus main body 11. The electronic viewfinder 13 has an attachment portion 65 for detachably attaching to the accessory shoe 61. A holding portion 66 that holds the two display portions 55R and 55L is rotatably attached to the attachment portion 65.

アクセサリーシュー61には、本体回路部20の通信部23を構成する接点部62が設けられており、電子ファインダ13の取付部65をアクセサリーシュー61に取り付けることにより、接点部62は取付部65に設けた図示しない接点部と電気的に接続されるようになっている。取付部65の接点部62は電子ファインダ回路部50の通信部52を構成する。   The accessory shoe 61 is provided with a contact portion 62 that constitutes the communication portion 23 of the main body circuit portion 20. By attaching the attachment portion 65 of the electronic finder 13 to the accessory shoe 61, the contact portion 62 is connected to the attachment portion 65. It is electrically connected to a provided contact portion (not shown). The contact part 62 of the attachment part 65 constitutes the communication part 52 of the electronic finder circuit part 50.

電子ファインダ13は、通信部52によって、保持部66が取付部65に対していずれの回転位置にあるかを示す情報、即ち、表示部55R,55Lを結ぶ線が撮像装置本体11に対してどのような角度にあるかを示す情報を、本体回路部20に送信することができるようになっている。   The electronic finder 13 uses the communication unit 52 to determine which rotation position of the holding unit 66 is relative to the mounting unit 65, that is, which line connecting the display units 55 </ b> R and 55 </ b> L is to the imaging apparatus main body 11. Information indicating whether the angle is at such an angle can be transmitted to the main body circuit unit 20.

図4(a)は電子ファインダ13をアクセサリーシュー61に取り付けた状態において、ユーザが撮像装置本体11を水平に把持して撮影を行う状態を示している。即ち、図4(a)は撮像装置本体11を水平に構えた横構図撮影の例を示している。この場合には、図3(a)に示すように、撮像レンズ12R,12Lを結ぶ基線は水平となり、3D撮影が可能である。ユーザは各表示部55R,55Lに設けた接眼部67R,67Lに目を対向させた状態で撮影を行う。   FIG. 4A shows a state in which the user takes a picture while holding the imaging apparatus main body 11 horizontally in a state where the electronic finder 13 is attached to the accessory shoe 61. That is, FIG. 4A shows an example of horizontal composition shooting in which the imaging apparatus main body 11 is held horizontally. In this case, as shown in FIG. 3A, the base line connecting the imaging lenses 12R and 12L is horizontal and 3D imaging is possible. The user takes a picture with the eyes facing the eyepieces 67R and 67L provided on the display units 55R and 55L.

図3(a),図4(a)の例では、本体回路部20の縦横検知部29によって、撮像装置本体11が水平に構えられていることが検知される。本体回路部20の信号処理及び制御部21は、レンズ情報によって交換レンズ12が2つのレンズ部44R,44Lを有することを認識する。左右画像信号生成部21aは、レンズ情報に基づいて、撮像部24の撮像素子の撮像面の右目用画像領域及び左目用画像領域を設定する。   In the example of FIGS. 3A and 4A, the vertical / horizontal detection unit 29 of the main body circuit unit 20 detects that the imaging device main body 11 is held horizontally. The signal processing and control unit 21 of the main body circuit unit 20 recognizes that the interchangeable lens 12 has two lens units 44R and 44L based on the lens information. The left and right image signal generation unit 21a sets the right-eye image region and the left-eye image region on the imaging surface of the imaging element of the imaging unit 24 based on the lens information.

左右画像信号生成部21aは、各画像領域から読み出した信号に基づいて右目用画像及び左目用画像を生成する。これらの右目用画像及び左目用画像は、電子ファインダ13のファインダ制御部51に供給される。ファインダ制御部51は、右目用画像を表示部55Rに与え、左目用画像を表示部55Lに与える。こうして、視者が電子ファインダ13の接眼部67R,67Lを覗くことにより、撮像レンズ12R,12Lによって取り込まれた被写体光学像に基づく3D表示を観察することができる。   The left and right image signal generation unit 21a generates a right eye image and a left eye image based on signals read from each image region. These right-eye image and left-eye image are supplied to the finder control unit 51 of the electronic finder 13. The finder control unit 51 provides the right-eye image to the display unit 55R and the left-eye image to the display unit 55L. Thus, when the viewer looks into the eyepieces 67R and 67L of the electronic viewfinder 13, the 3D display based on the subject optical image captured by the imaging lenses 12R and 12L can be observed.

図3(b)は図1及び図2に対応する撮像装置10及び電子ファインダ13と交換レンズ70とを示している。交換レンズ70は、撮像レンズ71を含む1つのレンズ部を有する。交換レンズ70は、撮像装置本体11の前面の図示しないレンズマウントに取り付けられている。   FIG. 3B shows the imaging device 10, the electronic viewfinder 13, and the interchangeable lens 70 corresponding to FIGS. 1 and 2. The interchangeable lens 70 has one lens unit including the imaging lens 71. The interchangeable lens 70 is attached to a lens mount (not shown) on the front surface of the imaging apparatus main body 11.

交換レンズ70は、図1の交換レンズ回路部40と同様の交換レンズ回路部を有しており、レンズ情報を本体回路部20に送信することができる。また、交換レンズ70は、本体回路部20によって、撮像レンズ71の絞り、ピント、ズーム等が制御されるようになっている。   The interchangeable lens 70 has an interchangeable lens circuit unit similar to the interchangeable lens circuit unit 40 of FIG. 1, and can transmit lens information to the main body circuit unit 20. In addition, the interchangeable lens 70 is configured such that the main body circuit unit 20 controls the aperture, focus, zoom, and the like of the imaging lens 71.

図3(b)では、表示部55R,55L同士を結ぶ線が水平となるように、取付部65に対して、保持部66を図3(a)の状態から90度回転させた状態を示している。   FIG. 3B shows a state in which the holding portion 66 is rotated 90 degrees from the state of FIG. 3A with respect to the attachment portion 65 so that the line connecting the display portions 55R and 55L is horizontal. ing.

図4(b)は図3(b)の状態で、ユーザが撮像装置本体11を把持して撮影を行う様子を示している。即ち、図4(b)は撮像装置本体11を垂直に構えた縦構図撮影の例を示している。この場合には、3D撮影を行うことはできないので、図3(b)に示すように、1つの撮像レンズ71のみを有する交換レンズ70を使用する。   FIG. 4B shows a state in which the user takes a picture while holding the imaging apparatus main body 11 in the state of FIG. That is, FIG. 4B shows an example of vertical composition shooting with the imaging apparatus main body 11 held vertically. In this case, since 3D photography cannot be performed, an interchangeable lens 70 having only one imaging lens 71 is used as shown in FIG.

縦構図撮影においても、各表示部55R,55Lに設けた接眼部67R,67Lを結ぶ線は水平であるので、ユーザは正立したまま接眼部67R,67Lに目を対向させて撮影を行うことができる。   Also in the vertical composition shooting, since the line connecting the eyepieces 67R and 67L provided in the respective display portions 55R and 55L is horizontal, the user takes an image with the eyes facing the eyepieces 67R and 67L while standing upright. It can be carried out.

図3(b),図4(b)の例では、本体回路部20の縦横検知部29によって、撮像装置本体11が垂直に構えられていることが検知される。本体回路部20の信号処理及び制御部21は、レンズ情報によって交換レンズ70が1つの撮像レンズ71を有することを認識する。左右画像信号生成部21aは、レンズ情報に基づいて、撮像部24の撮像素子の撮像面に1つの画像領域を設定して、この領域から画像信号を生成する。この画像信号は、電子ファインダ13のファインダ制御部51に供給される。ファインダ制御部51は、画像信号を表示部55R,55Lに与える。こうして、視者が電子ファインダ13の接眼部67R,67Lを覗くことにより、撮像レンズ71によって取り込まれた被写体光学像に基づく2D表示を両目で観察することができる。   In the example of FIGS. 3B and 4B, the vertical / horizontal detection unit 29 of the main body circuit unit 20 detects that the imaging device main body 11 is held vertically. The signal processing and control unit 21 of the main body circuit unit 20 recognizes that the interchangeable lens 70 has one imaging lens 71 based on the lens information. The left and right image signal generation unit 21a sets one image area on the imaging surface of the imaging element of the imaging unit 24 based on the lens information, and generates an image signal from this area. This image signal is supplied to the finder control unit 51 of the electronic finder 13. The finder control unit 51 gives the image signal to the display units 55R and 55L. Thus, when the viewer looks into the eyepieces 67R and 67L of the electronic viewfinder 13, the 2D display based on the subject optical image captured by the imaging lens 71 can be observed with both eyes.

また、信号処理及び制御部21は、記録再生部26から再生した3D画像及び2D画像を電子ファインダ13に与えて、3D表示又は2D表示を行うことも可能である。   Further, the signal processing and control unit 21 can give the 3D image and 2D image reproduced from the recording / reproducing unit 26 to the electronic viewfinder 13 to perform 3D display or 2D display.

なお、信号処理及び制御部21は、撮像して得た画像信号を本体表示部30に与えて表示させることも可能である。図4(c)に示すように、動画撮影時等においては、例えば撮像装置本体11の背面に設けた本体表示部30によって撮像画像を観察しながら撮影を行うこともできる。   Note that the signal processing and control unit 21 can also display the image signal obtained by imaging on the main body display unit 30 for display. As shown in FIG. 4C, when shooting a moving image, for example, it is possible to take a picture while observing the taken image with the main body display unit 30 provided on the back surface of the main body 11 of the imaging apparatus.

(光学系)
図5乃至図7は交換レンズ12に採用される光学系の例を示す説明図である。図6及び図7の例は、特開平8−171151号公報及び特開2004−4869号公報に開示されたものである。
(Optical system)
5 to 7 are explanatory views showing examples of the optical system employed in the interchangeable lens 12. 6 and 7 are disclosed in Japanese Patent Application Laid-Open Nos. 8-171151 and 2004-4869.

図5は撮像装置10を上方側から見た光学系と撮像素子との位置関係を示している。図5では、交換レンズ12は、レンズ部44R,44Lを夫々構成する光学系として、右目用光学系81R及び左目用光学系81Lを採用した例を示している。撮像装置本体11には、これらの光学系81R,81Lに対向して撮像部24を構成する撮像素子82の撮像面82aが設けられている。   FIG. 5 shows the positional relationship between the optical system and the imaging element when the imaging device 10 is viewed from above. FIG. 5 shows an example in which the interchangeable lens 12 employs a right-eye optical system 81R and a left-eye optical system 81L as optical systems that constitute the lens portions 44R and 44L, respectively. The imaging device main body 11 is provided with an imaging surface 82a of an imaging element 82 that constitutes the imaging unit 24 facing the optical systems 81R and 81L.

撮像素子82の撮像面82aの水平方向右側には、左目用画像領域が設定され、撮像面82aの水平方向左側には、右目用画像領域が設定される。撮像レンズ12Rを入射した光は、右目用光学系81Rを介して撮像面82aの水平方向左側に設けられた右目用画像領域に結像する。また、撮像レンズ12Lを入射した光は、左目用光学系81Lを介して撮像面82aの水平方向右側に設けられた左目用画像領域に結像する。   A left-eye image region is set on the right side in the horizontal direction of the imaging surface 82a of the imaging element 82, and a right-eye image region is set on the left side in the horizontal direction of the imaging surface 82a. The light incident on the imaging lens 12R forms an image on the right-eye image region provided on the left side in the horizontal direction of the imaging surface 82a via the right-eye optical system 81R. The light that has entered the imaging lens 12L forms an image on the left-eye image region provided on the right side in the horizontal direction of the imaging surface 82a via the left-eye optical system 81L.

図6及び図7は光学系の他の例を示している。図6及び図7の例は横長の3D画像を写し込むようにした場合における光学系を示しており、図6(a)及び図7(a)は平面状態を、図6(b)及び図7(b)は夫々図6(a)及び図7(a)の下面から見た状態を示している。なお、図6及び図7においては、撮像装置本体11に設けられた撮像部24の撮像素子として撮像素子102が採用されるものとして説明する。   6 and 7 show other examples of the optical system. 6 and 7 show the optical system when a horizontally long 3D image is captured. FIGS. 6A and 7A show the planar state, and FIGS. 7 (b) shows a state as seen from the lower surface of FIGS. 6 (a) and 7 (a). 6 and 7, the description will be made assuming that the image sensor 102 is employed as the image sensor of the image pickup unit 24 provided in the image pickup apparatus main body 11.

図6において、反射鏡104,105は撮像装置本体11に固定されたホルダ106に回転可能に取り付けられている。反射鏡104,105の反射面は各々同一平面上で回転できるようになっている。反射鏡104と反射鏡105との間には、一定の間隙が設けられ、そこに隔壁103の先端部が挿入されるようになっている。従って、隔壁103が回転された場合には、それによって反射鏡104,105が回転する。   In FIG. 6, the reflecting mirrors 104 and 105 are rotatably attached to a holder 106 fixed to the imaging device main body 11. The reflecting surfaces of the reflecting mirrors 104 and 105 can be rotated on the same plane. A fixed gap is provided between the reflecting mirror 104 and the reflecting mirror 105, and the tip of the partition wall 103 is inserted therein. Therefore, when the partition wall 103 is rotated, the reflecting mirrors 104 and 105 are rotated accordingly.

一組の反射光学系である反射鏡111と反射鏡104とは、被写体(右側の被写体像)からの光が反射鏡111に入射した後該反射鏡111の反射面で反射し、次に反射鏡104に入射した後該反射鏡104の反射面で反射され、上側の撮像面102aに結像されるように入射側から順次光学的に配置されている。このとき反射鏡104の反射面と反射鏡111の反射面とは、撮像面102aに像を結ぶことができる程度の略平行であることがよい。また、もう一組の反射光学系である反射鏡112と反射鏡105についても、反射鏡111と反射鏡104の場合と同様に被写体(左側の被写体像)からの光が下側の撮像面102aに結像されるように入射側から順次光学的に配置されている。   The reflecting mirror 111 and the reflecting mirror 104, which are a pair of reflecting optical systems, are reflected from the reflecting surface of the reflecting mirror 111 after light from the subject (right subject image) is incident on the reflecting mirror 111, and then reflected. After being incident on the mirror 104, it is optically arranged sequentially from the incident side so that it is reflected by the reflecting surface of the reflecting mirror 104 and imaged on the upper imaging surface 102a. At this time, the reflecting surface of the reflecting mirror 104 and the reflecting surface of the reflecting mirror 111 are preferably substantially parallel to the extent that an image can be formed on the imaging surface 102a. Further, with respect to the reflecting mirror 112 and the reflecting mirror 105, which are another pair of reflecting optical systems, light from the subject (the subject image on the left side) receives the lower imaging surface 102a as in the case of the reflecting mirror 111 and the reflecting mirror 104. Are sequentially arranged optically from the incident side.

凸レンズ109は反射鏡111と反射鏡104との間に配置され、右側からの被写体像が反射鏡104を介して上側の撮像面102aに結像させるためのものである。従って、凸レンズ109は反射鏡111からの射出光の光軸に沿って配置される。また、凸レンズ110は、凸レンズ109と同様に、反射鏡112と反射鏡105との間に配置される。なお、反射光学系に反射鏡を用いているが、反射鏡に代えてプリズムその他反射光学素子を用いるようにしても差し支えない。また、凸レンズ109,110をそれぞれ単レンズで示しているが、それらを複数枚のレンズで構成できることは言うまでもない。更に、反射鏡111と凸レンズ109とを反射鏡111と凸レンズ109との作用を合わせ持つ凸面を有するプリズムとすることもできる。   The convex lens 109 is disposed between the reflecting mirror 111 and the reflecting mirror 104, and is used to form a subject image from the right side on the upper imaging surface 102a via the reflecting mirror 104. Accordingly, the convex lens 109 is disposed along the optical axis of the light emitted from the reflecting mirror 111. Similarly to the convex lens 109, the convex lens 110 is disposed between the reflecting mirror 112 and the reflecting mirror 105. Although a reflecting mirror is used in the reflecting optical system, a prism or other reflecting optical element may be used instead of the reflecting mirror. Further, although the convex lenses 109 and 110 are shown as single lenses, it goes without saying that they can be constituted by a plurality of lenses. Further, the reflecting mirror 111 and the convex lens 109 may be a prism having a convex surface that has the functions of the reflecting mirror 111 and the convex lens 109.

また、図6(a)に示す入射側の左右の光軸113,114の間隔Sは、人間の眼幅を基準にし、被写体の大きさや距離を考慮して所定の値に選ばれている。光軸113,114上の物体をそれぞれ撮像面102aの中心に結像させるようにするために、図6(b)に示すように、凸レンズ109,110を通る光軸115,116が水平線Hに対して所定の角度θだけ傾けられている。この角度θは、tanθ=a/Sの式から算出される。このようにして、凸レンズ109,110をそれぞれ2つの反射鏡104,111及び105,112の間に配置したことにより、横方向に広い画角の被写体を撮像面102aに写し込むことが可能になる。   Further, the interval S between the left and right optical axes 113 and 114 on the incident side shown in FIG. 6A is selected to be a predetermined value in consideration of the size and distance of the subject with reference to the human eye width. In order to form an object on the optical axes 113 and 114 at the center of the imaging surface 102a, the optical axes 115 and 116 passing through the convex lenses 109 and 110 are in a horizontal line H as shown in FIG. It is inclined with respect to the predetermined angle θ. This angle θ is calculated from the equation tan θ = a / S. In this way, by arranging the convex lenses 109 and 110 between the two reflecting mirrors 104 and 111 and 105 and 112, respectively, it becomes possible to project a subject having a wide angle of view in the horizontal direction on the imaging surface 102a. .

このような構成の光学系においては、視差を有する被写体像の光束が、左右に設けられた各反射光学系にそれぞれ入射し、各反射光学系内にある2つの反射面によって反射され、一方の光束は隔壁103によって分割された撮像面102aの上半分の右目用画像領域を露光し、他方の光束は下半分の左目用画像領域を露光する。   In the optical system having such a configuration, the luminous flux of the subject image having parallax is incident on each of the reflection optical systems provided on the left and right, and is reflected by the two reflection surfaces in each of the reflection optical systems. The light beam exposes the upper half right-eye image region divided by the partition wall 103, and the other light beam exposes the lower half left-eye image region.

これらの右目用画像領域からの信号を右目用画像信号として取り出し、左目用画像領域からの信号を左目用画像信号として取り出すことで、3D画像を得ることができる。   A 3D image can be obtained by taking out signals from these right-eye image areas as right-eye image signals and taking out signals from the left-eye image area as left-eye image signals.

上記の構成において、反射鏡104,105を回転させ、更に別のサイズの3D画像をも得ることを可能にしている。即ち、図6の状態から反射鏡104,105をそれぞれの90度回転させた状態を図7に示している。この場合においては当然のことながら、反射鏡111,112の回転に連動させて、凸レンズの位置を移動させている。   In the above configuration, the reflecting mirrors 104 and 105 are rotated to obtain a 3D image of another size. That is, FIG. 7 shows a state where the reflecting mirrors 104 and 105 are rotated 90 degrees from the state of FIG. In this case, as a matter of course, the position of the convex lens is moved in conjunction with the rotation of the reflecting mirrors 111 and 112.

(作用)
次に、このように構成された実施の形態の作用について図8及び図9を参照して説明する。図8はカメラ制御を示すフローチャートであり、図9は図8中のステップS14のファインダ表示制御の具体的なフローを示すフローチャートである。
(Function)
Next, the operation of the embodiment configured as described above will be described with reference to FIGS. FIG. 8 is a flowchart showing camera control, and FIG. 9 is a flowchart showing a specific flow of finder display control in step S14 in FIG.

図8のステップS1において、信号処理及び制御部21は撮影モードであるか否かを判定する。いま、撮影モードが指示されているものとする。この場合には、信号処理及び制御部21は、ステップS2において、オートフォーカス制御(AF)を行い、撮像部24からの信号を取り込んで信号処理して、画像信号を生成する。   In step S1 of FIG. 8, the signal processing and control unit 21 determines whether or not the shooting mode is set. Assume that the shooting mode is instructed. In this case, in step S2, the signal processing and control unit 21 performs autofocus control (AF), takes in a signal from the imaging unit 24, performs signal processing, and generates an image signal.

また、撮影モードが指示されている場合には、信号処理及び制御部21はステップS3において電子ファインダが接続されているか否かを判定する。   When the shooting mode is instructed, the signal processing and control unit 21 determines whether or not the electronic viewfinder is connected in step S3.

いま、撮像装置本体11のアクセサリーシュー61に電子ファインダが接続されていないものとする。この場合には、信号処理及び制御部21は、生成した画像信号を本体表示部8に出力して、撮像画像を表示させる(ステップS4)。   Now, it is assumed that the electronic finder is not connected to the accessory shoe 61 of the imaging apparatus main body 11. In this case, the signal processing and control unit 21 outputs the generated image signal to the main body display unit 8 to display the captured image (step S4).

次に、信号処理及び制御部21は、ステップS5において撮影開始が指示されたか否かを判定する。撮影開始が指示されていない場合には、信号処理及び制御部21はステップS18において電源オフ操作が行われたか否かを判定し、電源オフ操作が行われていない場合には、処理をステップS1に戻す。なお、電源オフ操作が行われ場合には、ステップS19において電源をオフにする。   Next, the signal processing and control unit 21 determines whether or not an instruction to start shooting is instructed in step S5. If the start of shooting is not instructed, the signal processing and control unit 21 determines whether or not a power-off operation has been performed in step S18. If the power-off operation has not been performed, the processing is performed in step S1. Return to. If a power off operation is performed, the power is turned off in step S19.

ステップS5において、ユーザが撮影開始を指示したものと判定された場合には、信号処理及び制御部21は、動画撮影を行う(ステップS6)。なお、図8では本体表示部30への表示モードにおいては、撮影開始の指示によって動画撮影を行うものとして説明したが、静止画撮影を行うようにしてもよい。   If it is determined in step S5 that the user has instructed to start shooting, the signal processing and control unit 21 performs moving image shooting (step S6). In FIG. 8, in the display mode on the main body display unit 30, it has been described that moving image shooting is performed by an instruction to start shooting, but still image shooting may be performed.

撮影終了の指示が行われると、信号処理及び制御部21は、処理をステップS7からステップS8に移行して、画像ファイル化を行う。即ち、信号処理及び制御部21は、撮影と同時に、生成した画像信号の符号化処理を行って画像情報を記録再生部26から記録媒体に転送しており、撮影終了の指示によって、記録再生部26に転送した画像情報をファイル化させる。   When an instruction to end shooting is given, the signal processing and control unit 21 shifts the processing from step S7 to step S8 to create an image file. That is, the signal processing and control unit 21 encodes the generated image signal at the same time as shooting and transfers the image information from the recording / playback unit 26 to the recording medium. The image information transferred to H.26 is converted into a file.

次に、ステップS1において再生モードが指示されたことが判定されるものとする。この場合には、信号処理及び制御部21は、ステップS9から処理をステップS10に移行して、記録再生部26に記録されたファイルの一覧の情報を読み出し、ファイル一覧表示を本体表示部30に表示させる。   Next, in step S1, it is determined that the reproduction mode has been instructed. In this case, the signal processing and control unit 21 shifts the processing from step S9 to step S10, reads the information of the list of files recorded in the recording / reproducing unit 26, and displays the file list display on the main body display unit 30. Display.

ファイル一覧の表示時に、ユーザがファイル選択を行うと(ステップS11)、信号処理及び制御部21は、選択されたファイルを記録再生部26を介して読み出し、復号化処理を行って、画像信号及び音声信号を再生する。信号処理及び制御部21は、再生した画像信号及び音声信号を本体表示部30に与えて表示させる(ステップS12)。   When the user selects a file at the time of displaying the file list (step S11), the signal processing and control unit 21 reads out the selected file via the recording / playback unit 26, performs a decoding process, and performs an image signal and Play an audio signal. The signal processing and control unit 21 gives the reproduced image signal and audio signal to the main body display unit 30 for display (step S12).

なお、ファイル一覧表示時に、終了操作が行われた場合には、信号処理及び制御部21は、処理をステップS11からステップS13に移行して再生モードを終了する。   If an end operation is performed when the file list is displayed, the signal processing and control unit 21 moves the process from step S11 to step S13 and ends the reproduction mode.

本実施の形態においては、電子ファインダからのファインダ情報及び交換レンズからのレンズ情報並びに縦横検知部29からの縦横検知情報に基づいて、撮像画像の表示を制御するようになっている。   In the present embodiment, display of the captured image is controlled based on the finder information from the electronic finder, the lens information from the interchangeable lens, and the vertical and horizontal detection information from the vertical and horizontal detection unit 29.

即ち、ステップS3において、信号処理及び制御部21は、電子ファインダが接続されているものと判定すると、ステップS14に移行してファインダ表示制御を行う。   That is, in step S3, when the signal processing and control unit 21 determines that the electronic finder is connected, the process proceeds to step S14 to perform finder display control.

ファインダ表示制御においては、図9のステップS21において、信号処理及び制御部21は、接続された電子ファインダが3D用か否かを判定する。いま、撮像装置本体11のアクセサリーシュー61に電子ファインダ13が接続されているものとする。信号処理及び制御部21は、電子ファインダ13の通信部52及び本体回路部20の通信部23を介してファインダ情報を取り込む。このファインダ情報によって、信号処理及び制御部21は、電子ファインダ13が2つの表示部55R,55Lを有することを認識する。   In the finder display control, in step S21 of FIG. 9, the signal processing and control unit 21 determines whether or not the connected electronic finder is for 3D. Now, it is assumed that the electronic finder 13 is connected to the accessory shoe 61 of the imaging apparatus main body 11. The signal processing and control unit 21 captures finder information via the communication unit 52 of the electronic finder 13 and the communication unit 23 of the main body circuit unit 20. Based on this finder information, the signal processing and control unit 21 recognizes that the electronic finder 13 has two display units 55R and 55L.

次に、信号処理及び制御部21は、ステップS22において、交換レンズが3D用の交換レンズであるか否かを判定する。いま、撮像装置本体11のレンズマウントに交換レンズ12が接続されているものとする。信号処理及び制御部21は、交換レンズ12の通信部42及び本体回路部20の通信部22を介してレンズ情報を取り込む。このレンズ情報によって、信号処理及び制御部21は、交換レンズ12が2つの撮像レンズ12R,12Lを夫々含むレンズ部44R,44Lを有することを認識する。   Next, in step S22, the signal processing and control unit 21 determines whether or not the interchangeable lens is a 3D interchangeable lens. Now, it is assumed that the interchangeable lens 12 is connected to the lens mount of the imaging apparatus main body 11. The signal processing and control unit 21 captures lens information via the communication unit 42 of the interchangeable lens 12 and the communication unit 22 of the main body circuit unit 20. Based on this lens information, the signal processing and control unit 21 recognizes that the interchangeable lens 12 includes lens units 44R and 44L including two imaging lenses 12R and 12L, respectively.

この場合には、信号処理及び制御部21は、ステップS23において、右目用及び左目用画像信号を読み出す。即ち、信号処理及び制御部21の左右画像信号生成部21aは、レンズ情報に基づいて、各レンズ部44R,44Lによる入射光に応じた右目用画像領域及び左目用画像領域を設定する。左右画像信号生成部21aは、各画像領域から右目用画像信号及び左目用画像信号を読み出す。   In this case, the signal processing and control unit 21 reads the right-eye and left-eye image signals in step S23. That is, the left and right image signal generation unit 21a of the signal processing and control unit 21 sets the right-eye image region and the left-eye image region according to the incident light from the lens units 44R and 44L based on the lens information. The left and right image signal generation unit 21a reads the right eye image signal and the left eye image signal from each image region.

次に、信号処理及び制御部21は、ステップS24において、右目用画像及び左目用画像の拡大、縮小処理及び枠画像の生成処理を行う。右目用画像及び左目用画像の画像サイズは、撮像部24の撮像素子の撮像面のサイズ及び光学系による入射範囲に応じたものとなる。このため、右目用及び左目用画像の画像サイズは、電子ファインダ13の表示部55R,55Lの画像サイズと異なることが考えられる。そこで、信号処理及び制御部21は、右目用及び左目用画像の画像サイズを表示部55R,55Lの画像サイズに合わせて拡大、縮小処理を行う。また、右目用及び左目用画像と表示画像のアスペクト比に応じた枠画像を生成し、拡大、縮小した右目用及び左目用画像に重畳する。   Next, in step S <b> 24, the signal processing and control unit 21 performs right eye image and left eye image enlargement / reduction processing and frame image generation processing. The image sizes of the right-eye image and the left-eye image depend on the size of the imaging surface of the imaging device of the imaging unit 24 and the incident range by the optical system. For this reason, the image sizes of the right-eye and left-eye images may be different from the image sizes of the display units 55R and 55L of the electronic viewfinder 13. Therefore, the signal processing and control unit 21 performs an enlargement / reduction process according to the image sizes of the right-eye image and the left-eye image in accordance with the image sizes of the display units 55R and 55L. Also, frame images corresponding to the aspect ratios of the right-eye and left-eye images and the display image are generated and superimposed on the enlarged and reduced right-eye and left-eye images.

信号処理及び制御部21は生成した右目用及び左目用画像信号を、通信部23,52を介して電子ファインダ13のファインダ制御部51に与える。ファインダ制御部51は、表示駆動部54を制御して、右目用画像信号を表示部55Rに与え、左目用画像信号を表示部55Lに与え(ステップS25)、処理をメインルーチンに戻す。こうして、電子ファインダ13の表示装置55において、光学レンズ12を介して取り込んだ被写体光学像に基づく3D表示が行われる。   The signal processing and control unit 21 provides the generated right-eye and left-eye image signals to the finder control unit 51 of the electronic finder 13 via the communication units 23 and 52. The finder control unit 51 controls the display driving unit 54 to provide the right eye image signal to the display unit 55R and the left eye image signal to the display unit 55L (step S25), and returns the processing to the main routine. Thus, 3D display based on the subject optical image captured through the optical lens 12 is performed on the display device 55 of the electronic viewfinder 13.

図10及び図11はステップS23〜S25の処理を具体的に説明するための説明図である。図10及び図11は、撮像部24の撮像素子の撮像面90によって夫々横長の撮像画像が得られる例、縦長の撮像画像が得られる例を示している。   10 and 11 are explanatory diagrams for specifically explaining the processing of steps S23 to S25. 10 and 11 illustrate an example in which a horizontally long captured image is obtained by the imaging surface 90 of the image sensor of the imaging unit 24, and an example in which a vertically long captured image is obtained.

図10(a)の撮像面90には、右目用画像領域91R及び左目用画像領域91Lが設定されている。これらの画像領域91R,91Lは、例えば、交換レンズのレンズ部として図6に示す光学系を採用することで得られる。   A right-eye image area 91R and a left-eye image area 91L are set on the imaging surface 90 in FIG. These image regions 91R and 91L are obtained, for example, by adopting the optical system shown in FIG. 6 as the lens portion of the interchangeable lens.

図11(a)の撮像面90には、右目用画像領域95R及び左目用画像領域95Lが設定されている。これらの画像領域95R,95Lは、例えば、交換レンズのレンズ部として図7に示す光学系を採用することで得られる。   A right-eye image region 95R and a left-eye image region 95L are set on the imaging surface 90 in FIG. These image regions 95R and 95L are obtained, for example, by adopting the optical system shown in FIG. 7 as the lens portion of the interchangeable lens.

図10(a)及び図11(a)の比較から明らかなように、図10(a)の各画像領域91R,91Lは図11(a)の各画像領域95R,95Lに比べて横長である。このように、図10(a)では撮像面90から横長の撮像画像が得られ、図11(a)では撮像面90から縦長の撮像画像が得られる。   As is clear from the comparison between FIG. 10A and FIG. 11A, the image areas 91R and 91L in FIG. 10A are horizontally longer than the image areas 95R and 95L in FIG. . In this way, a horizontally long captured image is obtained from the imaging surface 90 in FIG. 10A, and a vertically long captured image is obtained from the imaging surface 90 in FIG.

例えば、図6に示す光学系が採用された場合には、信号処理及び制御部21は、ステップS23において、図10(a)に示す右目用及び左目用画像領域91R,91Lの設定を行うことになる。   For example, when the optical system shown in FIG. 6 is employed, the signal processing and control unit 21 sets the right-eye and left-eye image regions 91R and 91L shown in FIG. 10A in step S23. become.

また、例えば、図7に示す光学系が採用された場合には、信号処理及び制御部21は、ステップS23において、図11(a)に示す右目用及び左目用画像領域95R,95Lの設定を行う。   For example, when the optical system shown in FIG. 7 is adopted, the signal processing and control unit 21 sets the right-eye and left-eye image regions 95R and 95L shown in FIG. 11A in step S23. Do.

図10(b)は画像領域91R,91Lから読み出した右目用画像及び左目用画像を電子ファインダの表示部55R,55Lに表示する例を示している。表示部55Rの表示領域92Rには中央に右目用画像表示領域93Rが設けられ、上下部に枠画像領域94Rが設けられている。画像領域91Rから読み出された右目用画像は表示部55Rの表示領域92Rの右目用画像表示領域93Rに表示される。   FIG. 10B shows an example in which the image for the right eye and the image for the left eye read from the image areas 91R and 91L are displayed on the display units 55R and 55L of the electronic viewfinder. In the display area 92R of the display section 55R, a right-eye image display area 93R is provided at the center, and a frame image area 94R is provided at the top and bottom. The right-eye image read from the image area 91R is displayed in the right-eye image display area 93R of the display area 92R of the display unit 55R.

同様に、表示部55Lの表示領域92Lには中央に左目用画像表示領域93Lが設けられ、上下部に枠画像領域94Lが設けられている。画像領域91Lから読み出された左目用画像は表示部55Lの表示領域92Lの左目用画像表示領域93Lに表示される。   Similarly, in the display area 92L of the display section 55L, a left-eye image display area 93L is provided at the center, and a frame image area 94L is provided at the top and bottom. The left-eye image read from the image area 91L is displayed in the left-eye image display area 93L of the display area 92L of the display unit 55L.

図11(b)は画像領域95R,95Lから読み出した右目用画像及び左目用画像を電子ファインダの表示部55R,55Lに表示する例を示している。   FIG. 11B shows an example in which the image for the right eye and the image for the left eye read from the image areas 95R and 95L are displayed on the display units 55R and 55L of the electronic viewfinder.

仮に、画像領域95R,95Lから読み出した画像の全域を拡大縮小して表示部55R,55Lの表示領域92R,92Lに表示しようとすると、表示領域92R,92Lの左右に比較的幅広の枠画像を形成し、表示領域92R,92Lの中央の比較的狭い領域に右目用及び左目用画像が表示されることになる。   If the entire image read from the image areas 95R and 95L is enlarged and reduced and displayed on the display areas 92R and 92L of the display portions 55R and 55L, a relatively wide frame image is displayed on the left and right of the display areas 92R and 92L. The right-eye and left-eye images are displayed in a relatively narrow area at the center of the display areas 92R and 92L.

そこで、画像の見易さ、臨場感等を考慮して、図11(b)に示すように、画像領域95R,95Lから読み出した画像の上下方向中央の一部のみを、表示領域92R,92Lの全域に表示する表示方法が採用される。   Therefore, in consideration of the visibility of the image, the sense of presence, etc., as shown in FIG. 11B, only the part of the center in the vertical direction of the image read from the image regions 95R and 95L is displayed in the display regions 92R and 92L. A display method for displaying the entire area is adopted.

即ち、信号処理及び制御部21は、画像領域95R,95Lから読み出した画像を拡大した画像95R’及び画像95L’の上下方向中央の画像部分を表示部55R,55Lに表示させる。   That is, the signal processing and control unit 21 causes the display units 55R and 55L to display the image 95R ′ obtained by enlarging the image read from the image regions 95R and 95L and the image portion at the center in the vertical direction of the image 95L ′.

これによって左右の目で見たときの左右方向への広がりを優先し、見やすい画像にできる。また、撮った写真をワイドTV等に表示することを考慮しても、このようなファインダ表示確認の方が実際に即している。   This gives priority to spreading in the left-right direction when viewed with the left and right eyes, and makes it easy to view. Further, even if it is considered that the photograph taken is displayed on a wide-screen TV or the like, such finder display confirmation is actually more appropriate.

ここで、ユーザがこの3D表示を観察しながら、静止画像の撮影を指示するものとする。そうすると、信号処理及び制御部21は、図8のステップS15から処理をステップS17に移行して静止画撮影を行う。即ち、信号処理及び制御部21は、撮影指示タイミングにおける右目用及び左目用画像の静止画像を圧縮処理して、記録再生部26により記録媒体に記録させる(ステップS8)。また、信号処理及び制御部21は、この右目用及び左目用画像の静止画像を一定時間表示部55R,55Lに表示させる。   Here, it is assumed that the user instructs to capture a still image while observing the 3D display. Then, the signal processing and control unit 21 shifts the processing from step S15 of FIG. 8 to step S17 and performs still image shooting. That is, the signal processing and control unit 21 compresses the still images of the right-eye and left-eye images at the shooting instruction timing, and causes the recording / reproducing unit 26 to record them on the recording medium (step S8). Further, the signal processing and control unit 21 displays the still images of the right-eye image and the left-eye image on the display units 55R and 55L for a predetermined time.

また、ユーザがこの3D表示を観察しながら、動画像の撮影を指示するものとする。この場合には、信号処理及び制御部21は、ステップS15,S16からステップS6に移行して動画像撮影を行う。   Further, it is assumed that the user gives an instruction to shoot a moving image while observing the 3D display. In this case, the signal processing and control unit 21 moves from step S15, S16 to step S6 to perform moving image shooting.

このようにして、撮影時において、3D表示を確認しながら、3Dの静止画及び動画像を撮影することができる。   In this way, 3D still images and moving images can be captured while confirming the 3D display during shooting.

更に、本実施の形態においては、交換レンズとして2D撮影用のものを用いることができる。いま、交換レンズとして図3(b)に示す交換レンズ70が取り付けられているものとする。この場合には、信号処理及び制御部21は、ステップS22から処理をステップS26に移行して縦構図撮影を行う状態になっているか否かを判定する。   Furthermore, in this embodiment, an interchangeable lens for 2D photography can be used. Assume that an interchangeable lens 70 shown in FIG. 3B is attached as an interchangeable lens. In this case, the signal processing and control unit 21 determines whether or not the process is shifted from step S22 to step S26 to perform vertical composition shooting.

即ち、信号処理及び制御部21は、縦横検知部29からの縦横検知情報に基づいて、撮像装置本体11の姿勢が水平向きであるか垂直向きであるかを判定する。いま、撮像装置本体11の姿勢が水平向き(横構図撮影の状態)であるものとする。この場合には、信号処理及び制御部21は、撮像して得た画像信号をそのままファインダ制御部51に出力する。ファインダ制御部51の表示駆動部54は、信号処理及び制御部21からの表示制御情報に基づいて、画像信号を2つの表示部55R,55Lに与える。これにより、表示部55R,55Lに、撮像レンズ71を介して取り込まれた被写体光学像に基づく同一の画像が表示される(ステップS29)。   That is, the signal processing and control unit 21 determines whether the posture of the imaging apparatus main body 11 is horizontal or vertical based on the vertical / horizontal detection information from the vertical / horizontal detection unit 29. Now, it is assumed that the posture of the imaging apparatus main body 11 is horizontal (horizontal composition shooting state). In this case, the signal processing and control unit 21 outputs the image signal obtained by imaging to the finder control unit 51 as it is. The display drive unit 54 of the finder control unit 51 provides an image signal to the two display units 55R and 55L based on the signal processing and display control information from the control unit 21. As a result, the same image based on the subject optical image captured via the imaging lens 71 is displayed on the display units 55R and 55L (step S29).

ここで、撮像装置本体11の姿勢が、図3(b)に示すように、垂直向きであるものとする。なおこの場合には、電子ファインダ13は、表示部55R,55L同士を結ぶ線が水平になっているものとする。   Here, it is assumed that the posture of the imaging apparatus main body 11 is vertical as shown in FIG. In this case, the electronic finder 13 is assumed to have a horizontal line connecting the display units 55R and 55L.

この場合には、信号処理及び制御部21は、ステップS27において、縦横検知情報に基づいて、撮像装置本体11の姿勢の回転角度が90度、270度のいずれであるかを判定する。そして、信号処理及び制御部21は、縦横検知情報に基づいて、撮像して得た画像を90度又は270度回転させて、撮像画像の上下と電子ファインダ13の表示部55R,55L上に表示する画像の上下とを一致させる。   In this case, in step S27, the signal processing and control unit 21 determines whether the rotation angle of the posture of the imaging apparatus main body 11 is 90 degrees or 270 degrees based on the vertical / horizontal detection information. Then, the signal processing and control unit 21 rotates the image obtained by imaging by 90 degrees or 270 degrees based on the vertical / horizontal detection information, and displays the image on the top and bottom of the captured image and the display units 55R and 55L of the electronic viewfinder 13. The top and bottom of the image to be matched are matched.

次に、信号処理及び制御部21は、ステップS28において、右目用画像及び左目用画像の拡大、縮小処理及び枠画像の生成処理を行う。こうして、撮像画像のサイズ及びアスペクト比を表示画像のサイズ及びアスペクト比に一致させる。こうして、枠画像を含む撮像画像は、ステップS29において、表示部55R,55Lに供給されて表示される。   Next, in step S28, the signal processing and control unit 21 performs enlargement / reduction processing of the right-eye image and left-eye image, and frame image generation processing. Thus, the size and aspect ratio of the captured image are matched with the size and aspect ratio of the display image. Thus, the captured image including the frame image is supplied to and displayed on the display units 55R and 55L in step S29.

更に、本実施の形態においては、電子ファインダとして2D表示用のものを用いることができる。いま、電子ファインダとして2D表示用の電子ファインダが取り付けられているものとする。この場合には、信号処理及び制御部21は、ステップS21から処理をステップS30に移行して交換レンズが3D撮影用のものであるか否かを判定する。   Furthermore, in this embodiment, an electronic viewfinder for 2D display can be used. Assume that an electronic viewfinder for 2D display is attached as an electronic viewfinder. In this case, the signal processing and control unit 21 proceeds from step S21 to step S30 to determine whether or not the interchangeable lens is for 3D shooting.

交換レンズが2D撮影用である場合、即ち、交換レンズ及び電子ファインダが2D用である場合には、信号処理及び制御部21は、ステップS31において、撮像画像に基づく画像信号をそのまま2D用の電子ファインダの表示部に与えて表示させる。これにより、撮像された2次元画像が電子ファインダによって表示される。   When the interchangeable lens is for 2D shooting, that is, when the interchangeable lens and the electronic viewfinder are for 2D, the signal processing and control unit 21 outputs the image signal based on the captured image as it is in 2D electronic in step S31. Give it to the display part of the viewfinder and display it. Thereby, the captured two-dimensional image is displayed by the electronic viewfinder.

交換レンズが3D撮影用である場合、即ち、撮像部24において右目用及び左目用画像が撮像された場合には、信号処理及び制御部21は、ステップS32において、左目用画像信号を表示部55R,55Lに与えて表示させる。これにより、表示部55R,55Lの双方に左目用画像が表示される。なお、ステップS32においては、右目用画像信号を表示部55R,55Lに与えるようにしてもよいことは明らかである。また、ステップS32において、ユーザが縦構図撮影を行うことも考えられる。この場合には、信号処理及び制御部21は、縦横検知情報に基づいて、左目用画像と表示画像との上下が一致するように、左目用画像を90度回転させて表示部55R,55Lに表示させるようにしてもよい。   When the interchangeable lens is for 3D shooting, that is, when the right-eye and left-eye images are captured by the imaging unit 24, the signal processing and control unit 21 displays the left-eye image signal on the display unit 55R in step S32. , 55L for display. As a result, the left-eye image is displayed on both the display units 55R and 55L. In step S32, it is obvious that the right-eye image signal may be given to the display units 55R and 55L. In step S32, the user may perform vertical composition shooting. In this case, the signal processing and control unit 21 rotates the left-eye image by 90 degrees so that the left-eye image and the display image coincide with each other on the basis of the vertical / horizontal detection information and displays the left-eye image on the display units 55R and 55L. You may make it display.

図12はステップS31の処理を説明するための説明図である。図12(a)は撮像部24として縦長の撮像面96を有する撮像素子を採用した例を示している。図12(a)の撮像面96によって得られる画像は、拡大縮小処理された後、図12(b)に示すように、表示部55R,55Lの表示領域92R,92Lに、画像97として表示される。   FIG. 12 is an explanatory diagram for explaining the processing in step S31. FIG. 12A shows an example in which an imaging element having a vertically long imaging surface 96 is adopted as the imaging unit 24. The image obtained by the imaging surface 96 in FIG. 12A is enlarged and reduced, and then displayed as an image 97 in the display areas 92R and 92L of the display units 55R and 55L, as shown in FIG. 12B. The

このように本実施の形態においては、撮影時において、3D表示を確認しながら、3Dの静止画及び動画像を撮影することができる。また、本実施の形態においては、3D撮影、2D撮影が可能であると共に、その切換えが極めて容易である。更に、電子ファインダが3D用、2D用のいずれであっても、それに適した表示が可能である。即ち、交換レンズが3D用、2D用のいずれであっても、また、電子ファインダが3D用、2D用のいずれであっても、それらの組み合わせに応じて、適切な表示が可能である。   Thus, in this embodiment, 3D still images and moving images can be captured while confirming 3D display at the time of shooting. Further, in the present embodiment, 3D shooting and 2D shooting are possible, and switching is very easy. Furthermore, even if the electronic viewfinder is for 3D or 2D, display suitable for it is possible. That is, regardless of whether the interchangeable lens is for 3D or 2D, and the electronic viewfinder is for 3D or 2D, appropriate display is possible depending on the combination thereof.

また、上述した特許文献1の発明では、2組の撮像部を用いて3D画像を生成する方式であり、2組の撮像素子間で得た画像を時間的に同期させる必要がある。同期が取れていない左右の画像では上手く立体視を行うことが出来ない。特に動体を撮影した場合には、時系列のずれた左右の画像が発生しやすい。   Moreover, in the invention of Patent Document 1 described above, a 3D image is generated by using two sets of imaging units, and images obtained between the two sets of imaging elements need to be synchronized in time. Stereo vision cannot be performed well on left and right images that are not synchronized. Particularly when a moving object is photographed, left and right images that are shifted in time series are likely to be generated.

これに対し、本実施の形態においては、単一の撮像部を用いることによってこの問題を安価に解決することが可能である。   On the other hand, in this embodiment, this problem can be solved at low cost by using a single imaging unit.

(第2の実施の形態)
図13は本発明の第2の実施の形態を示すフローチャートである。図13において図9と同一の手順には同一符号を付して説明を省略する。本実施の形態のハードウェア構成は図1及び図2の第1の実施の形態と同様である。本実施の形態は交換レンズの種類に応じた表示制御を行う点が第1の実施の形態と異なるのみである。
(Second Embodiment)
FIG. 13 is a flowchart showing the second embodiment of the present invention. In FIG. 13, the same procedures as those in FIG. The hardware configuration of this embodiment is the same as that of the first embodiment shown in FIGS. This embodiment differs from the first embodiment only in that display control is performed according to the type of interchangeable lens.

第1の実施の形態における3D撮影においては、1つの撮像素子の撮像面上に2つの画像領域を設定して、各領域から夫々右目用画像と左目用画像とを得る。この場合において、交換レンズのレンズ部として図6に示す光学系を採用すると横長の画像が得られ、図7に示す光学系を採用すると縦長の画像が得られる。撮像素子の撮像面を有効に利用することを考慮した場合には、図6に示す光学系を利用した方がよい。この場合でも、一般的な2D用の撮像素子を採用すると、得られる右目用画像及び左目用画像は横長の画像である。   In 3D imaging in the first embodiment, two image areas are set on the imaging surface of one imaging element, and a right-eye image and a left-eye image are obtained from each area. In this case, when the optical system shown in FIG. 6 is adopted as the lens portion of the interchangeable lens, a horizontally long image is obtained, and when the optical system shown in FIG. 7 is adopted, a vertically long image is obtained. When considering the effective use of the imaging surface of the imaging device, it is better to use the optical system shown in FIG. Even in this case, when a general 2D image sensor is employed, the obtained right-eye image and left-eye image are horizontally long images.

これらの右目用及び左目用画像に比べると、電子ファインダの表示部の表示領域は若干縦長である。従って、撮像素子の撮像面の上下に右目用及び左目用画像領域を設定する場合には、レンズ部の光学系を適宜設定すると共に、撮像素子の撮像面を縦長に配置した方が、撮像面を有効に利用することができることになる。   Compared to these right-eye and left-eye images, the display area of the display unit of the electronic viewfinder is slightly longer. Therefore, when setting the right-eye and left-eye image regions above and below the image pickup surface of the image pickup device, it is preferable to set the optical system of the lens unit appropriately and to arrange the image pickup surface of the image pickup device vertically. Can be used effectively.

そこで、本実施の形態においては、撮像素子が水平方向に長手(横長)に配置されているか垂直方向に長手(縦長)に配置されているかに基づいて、交換レンズを切換えると共にファインダ表示制御を行うようになっている。図14は本実施の形態において採用する交換レンズを説明するための説明図である。   Therefore, in the present embodiment, the interchangeable lens is switched and the finder display control is performed based on whether the imaging element is arranged in the horizontal direction (longitudinal) or in the vertical direction (longitudinal). It is like that. FIG. 14 is an explanatory diagram for explaining an interchangeable lens employed in the present embodiment.

図14(a)は撮像装置本体11の図示しないレンズマウントに、交換レンズ121を取り付けた状態を示している。交換レンズ121は、取付部122によって光軸を中心に回動自在に取り付けられている。交換レンズ121は右目用画像及び左目用画像を撮像可能にする撮像レンズ121R,121Lを有している。交換レンズ121を撮像装置本体11に対して回転させることにより、撮像装置本体11が横構図撮影の回転位置に位置する場合及び縦構図撮影の回転位置に位置する場合のいずれの場合にも、撮像レンズ121R,121L同士を結ぶ基線を水平に維持することができる。   FIG. 14A shows a state in which the interchangeable lens 121 is attached to a lens mount (not shown) of the imaging apparatus main body 11. The interchangeable lens 121 is attached to the attachment portion 122 so as to be rotatable about the optical axis. The interchangeable lens 121 includes imaging lenses 121R and 121L that can capture a right-eye image and a left-eye image. By rotating the interchangeable lens 121 with respect to the imaging apparatus main body 11, imaging is performed in both cases where the imaging apparatus main body 11 is positioned at the rotation position for horizontal composition shooting and at the rotation position for vertical composition shooting. The base line connecting the lenses 121R and 121L can be kept horizontal.

図14(b)は撮像装置本体11の図示しないレンズマウントに、交換レンズ123を取り付けた状態を示している。交換レンズ123は、取付部122によって光軸を中心に回動自在に取り付けられている。交換レンズ123は右目用画像及び左目用画像を撮像可能にする撮像レンズ123R,123Lを有している。交換レンズ123を撮像装置本体11に対して回転させることにより、撮像装置本体11が横構図撮影の回転位置に位置する場合及び縦構図撮影の回転位置に位置する場合のいずれの場合にも、撮像レンズ123R,123L同士を結ぶ基線を水平に維持することができる。   FIG. 14B shows a state in which the interchangeable lens 123 is attached to a lens mount (not shown) of the imaging apparatus main body 11. The interchangeable lens 123 is attached to the attachment portion 122 so as to be rotatable about the optical axis. The interchangeable lens 123 has imaging lenses 123R and 123L that can capture a right-eye image and a left-eye image. By rotating the interchangeable lens 123 with respect to the imaging device main body 11, imaging is performed in both cases where the imaging device main body 11 is positioned at the rotation position for horizontal composition shooting and at the rotation position for vertical composition shooting. The base line connecting the lenses 123R and 123L can be kept horizontal.

本実施の形態においては、交換レンズ123は、交換レンズ121に比べて、撮像素子の撮像面上の広い領域に、被写体像を結像させることができるようになっている。   In the present embodiment, the interchangeable lens 123 can form a subject image in a wider area on the imaging surface of the image sensor than the interchangeable lens 121.

図13のステップS21,S22において、電子ファインダ及び交換レンズが3D用であると判定された場合には、信号処理及び制御部21は、次のステップS41において、撮像素子が横長に配置されているか否かを判定する。   If it is determined in steps S21 and S22 in FIG. 13 that the electronic viewfinder and the interchangeable lens are for 3D, the signal processing and control unit 21 determines whether the image sensor is arranged horizontally in the next step S41. Determine whether or not.

いま、撮像装置本体11が図14(a)に示す横構図撮影の状態になっている場合に、撮像素子の撮像面が横長に配置されているものとする。この場合には、撮像装置本体11を縦構図撮影の状態にすると、撮像素子の撮像面は縦長に配置される。なお、縦構図撮影の状態であっても、撮像レンズ121R,121L同士及び撮像レンズ123R,123L同士を結ぶ基線を水平に維持することにより、3D撮影が可能である。   Assume that the imaging surface of the imaging device is arranged horizontally when the imaging apparatus main body 11 is in the state of the horizontal composition shooting shown in FIG. In this case, when the imaging apparatus main body 11 is in the state of vertical composition shooting, the imaging surface of the imaging device is arranged vertically long. Even in the state of vertical composition shooting, 3D shooting is possible by keeping the baseline connecting the imaging lenses 121R and 121L and the imaging lenses 123R and 123L horizontal.

信号処理及び制御部21は、横構図撮影の状態になっている場合には、ステップS42において横構図撮影用の画像領域を設定し、縦構図撮影の状態になっている場合には、ステップS43において縦構図用の画像領域を設定する。   The signal processing and control unit 21 sets an image area for horizontal composition shooting in step S42 when it is in the horizontal composition shooting state, and step S43 when it is in the vertical composition shooting state. In, an image area for vertical composition is set.

図15は撮像素子の撮像面上に設定する右目用及び左目用画像領域を説明するための説明図である。図15(a)は横構図撮影時の画像領域を示し、図15(b)は縦構図撮影時の画像領域を示している。   FIG. 15 is an explanatory diagram for explaining right-eye and left-eye image regions set on the imaging surface of the imaging element. FIG. 15A shows an image area at the time of horizontal composition shooting, and FIG. 15B shows an image area at the time of vertical composition shooting.

図15(a)は横構図撮影時における撮像素子の撮像面125を示している。撮像面125上には、信号処理及び制御部21によって、右目用画像領域126R及び左目用画像領域126Lが設定される。   FIG. 15A shows the imaging surface 125 of the image sensor at the time of horizontal composition shooting. On the imaging surface 125, the signal processing and control unit 21 sets a right-eye image region 126R and a left-eye image region 126L.

図15(a)においては、撮像面125の上下に右目用及び左目用画像領域126R,126Lを配置するので、どうしても縦に狭い画像となる。このため、高い被写体を3D撮影する場合には、十分な撮影範囲をカバーすることができない。   In FIG. 15A, since the right-eye and left-eye image regions 126R and 126L are arranged above and below the imaging surface 125, the image is inevitably narrow in the vertical direction. For this reason, when 3D shooting of a high subject, it is not possible to cover a sufficient shooting range.

そこで、上下方向に十分な撮影範囲を確保したい場合には、縦構図撮影を採用する。即ち、この場合には、交換レンズ123を用い、撮像レンズ123R,123L同士を結ぶ基線を水平に維持した状態で、撮像装置本体11を縦構図撮影の状態にする。これにより、撮像素子の撮像面125は、縦長の撮像面125’となる。   Therefore, when it is desired to secure a sufficient shooting range in the vertical direction, vertical composition shooting is employed. That is, in this case, using the interchangeable lens 123, the imaging apparatus main body 11 is set in a state of vertical composition shooting while maintaining the base line connecting the imaging lenses 123R and 123L horizontal. Thereby, the imaging surface 125 of the imaging device becomes a vertically long imaging surface 125 ′.

この場合には、撮像面125’上には、右目用画像領域127R及び左目用画像領域127Lが設定される。右目用画像領域127R及び左目用画像領域127Lでは、交換レンズ123による結像範囲が広いので、破線にて示す撮像画像の全てを得ることはできない。しかし、左右方向両端の画像部分は犠牲になるが、建物などを3D描写するには相応しい縦横比の画像を得ることができる。   In this case, a right-eye image region 127R and a left-eye image region 127L are set on the imaging surface 125 '. In the image area 127R for the right eye and the image area 127L for the left eye, since the imaging range by the interchangeable lens 123 is wide, it is not possible to obtain all of the captured images indicated by the broken lines. However, although the image portions at both ends in the left-right direction are sacrificed, an image with an aspect ratio suitable for 3D depiction of a building or the like can be obtained.

ステップS44において、信号処理及び制御部21は、拡大縮小処理を行う。こうして、拡大縮小処理後の右目用画像及び左目用画像が電子ファインダ13の表示部55R,55Lに表示される(ステップS25)。   In step S44, the signal processing and control unit 21 performs enlargement / reduction processing. Thus, the right eye image and the left eye image after the enlargement / reduction processing are displayed on the display units 55R and 55L of the electronic viewfinder 13 (step S25).

一方、図13のステップS21,S30において、電子ファインダが2D表示用で交換レンズが3D用であると判定された場合には、信号処理及び制御部21は、次のステップS46において、撮像素子が横長に配置されているか否かを判定する。信号処理及び制御部21は、横構図撮影の状態になっている場合には、ステップS47において横構図撮影用の画像領域を設定し、縦構図撮影の状態になっている場合には、ステップS48において縦構図用の画像領域を設定する。   On the other hand, if it is determined in steps S21 and S30 in FIG. 13 that the electronic viewfinder is for 2D display and the interchangeable lens is for 3D, the signal processing and control unit 21 determines that the image sensor is in the next step S46. It is determined whether or not it is arranged horizontally. The signal processing and control unit 21 sets an image area for horizontal composition shooting in step S47 when the state is in horizontal composition shooting, and step S48 when in the state of vertical composition shooting. In, an image area for vertical composition is set.

次に、信号処理及び制御部21は、ステップS49において、中間画像を作成する。例えば、信号処理及び制御部21は、右目用画像と左目用画像の対応点を推定し、これらの画像の中間を補うための画像を生成する。そして、信号処理及び制御部21は、ステップS50において、中間画像を表示部55R,55Lに表示させる。   Next, the signal processing and control unit 21 creates an intermediate image in step S49. For example, the signal processing and control unit 21 estimates the corresponding points of the right-eye image and the left-eye image, and generates an image for supplementing the middle of these images. Then, in step S50, the signal processing and control unit 21 displays the intermediate image on the display units 55R and 55L.

なお、ステップS22,S30において交換レンズが2D用と判定された場合の処理は図9と同様であり、説明を省略する。この場合には、2D用の撮像レンズ71(図3(b)参照)によって撮像された画像を、左右の表示部55R,55Lに表示すればよい。   Note that the processing when it is determined in steps S22 and S30 that the interchangeable lens is for 2D is the same as that in FIG. In this case, an image captured by the 2D imaging lens 71 (see FIG. 3B) may be displayed on the left and right display units 55R and 55L.

このように本実施の形態においても第1の実施の形態と同様の効果が得られると共に、撮像素子の長手方向の向き及び交換レンズの種類に応じた画像領域の設定及び拡大、縮小処理を行うことが可能である。また、3D画像を2D表示する場合において、3D画像の特徴を利用した表示が可能となる。   As described above, the present embodiment can provide the same effects as those of the first embodiment, and performs setting, enlargement, and reduction processing of an image area according to the longitudinal direction of the image sensor and the type of the interchangeable lens. It is possible. In addition, when a 3D image is displayed in 2D, it is possible to display using the characteristics of the 3D image.

なお、本実施の形態では、横構図撮影時に撮像面が横長となる撮像素子を採用する例について説明したが、横構図撮影時に縦長となる撮像面を有する撮像素子を採用してもよい。この場合には、撮像装置本体を90度回転させることなく、撮像素子を有効に活用した3D撮像が可能であることは明らかである。   In the present embodiment, an example is described in which an imaging element whose imaging surface is horizontally long at the time of horizontal composition shooting is described. However, an imaging element having an imaging surface that is vertically long at the time of horizontal composition shooting may be employed. In this case, it is obvious that 3D imaging using the imaging element can be effectively performed without rotating the imaging apparatus main body by 90 degrees.

(第3の実施の形態)
図16乃至図18は本発明の第3の実施の形態に係り、図16は交換レンズ12及び電子部品130との接続を説明するための説明図であり、図17は使用方法を説明するための説明図であり、図18は動作フローを示すフローチャートである。図16において図3と同一の構成要素には同一符号を付して説明を省略する。
(Third embodiment)
FIGS. 16 to 18 relate to the third embodiment of the present invention, FIG. 16 is an explanatory diagram for explaining the connection between the interchangeable lens 12 and the electronic component 130, and FIG. 17 is a diagram for explaining the usage method. FIG. 18 is a flowchart showing an operation flow. In FIG. 16, the same components as those in FIG.

本実施の形態のハードウェア構成は図1及び図2の第1の実施の形態と同様である。本実施の形態は電子ファインダ13に代えて電子部品130を取り付けて使用する点が第1の実施の形態と異なるのみである。   The hardware configuration of this embodiment is the same as that of the first embodiment shown in FIGS. This embodiment is different from the first embodiment only in that an electronic component 130 is attached and used instead of the electronic viewfinder 13.

電子部品130は、取付部131、信号ケーブル132及び電子メガネ133によって構成されている。取付部131は、撮像装置本体11上端のアクセサリーシュー61に、着脱自在に取り付けられるようになっている。取付部131をアクセサリーシュー61に取り付けることにより、接点部62が取付部131に設けた図示しない接点部と電気的に接続される。これにより、本体回路部20(図1参照)の通信部23は、信号ケーブル132を介して電子メガネ133との間で信号の送受が可能である。   The electronic component 130 includes a mounting portion 131, a signal cable 132, and electronic glasses 133. The attachment portion 131 is detachably attached to the accessory shoe 61 at the upper end of the imaging device main body 11. By attaching the attachment portion 131 to the accessory shoe 61, the contact portion 62 is electrically connected to a contact portion (not shown) provided on the attachment portion 131. Accordingly, the communication unit 23 of the main body circuit unit 20 (see FIG. 1) can transmit and receive signals to and from the electronic glasses 133 via the signal cable 132.

電子メガネ133は、左右の目に対応した位置に、電子シャッタ133R,133Lを有している。電子シャッタ133R,133Lは、信号処理及び制御部21に制御されて、相互に独立して、目に入る光の量を制限することができるようになっている。   The electronic glasses 133 have electronic shutters 133R and 133L at positions corresponding to the left and right eyes. The electronic shutters 133R and 133L can be controlled by the signal processing and control unit 21 to limit the amount of light entering the eyes independently of each other.

また、本実施の形態においては、信号処理及び制御部21は、右目用画像信号及び左目用画像信号を時分割で交互に本体表示部30に供給するようになっている。これにより、本体表示部30には、右目用画像と左目用画像とが時分割で交互に表示される。   In the present embodiment, the signal processing and control unit 21 supplies the right-eye image signal and the left-eye image signal to the main body display unit 30 alternately in a time division manner. Accordingly, the right-eye image and the left-eye image are alternately displayed on the main body display unit 30 in a time division manner.

信号処理及び制御部21は、本体表示部30の表示に同期させて、電子メガネ133の電子シャッタ133R,133Lを制御する。即ち、信号処理及び制御部21は、右目用画像が本体表示部30に表示されているタイミングにおいて電子シャッタ133Lの入射光を遮り、左目用画像が本体表示部30に表示されているタイミングにおいて電子シャッタ133Rの入射光を遮る。   The signal processing and control unit 21 controls the electronic shutters 133R and 133L of the electronic glasses 133 in synchronization with the display of the main body display unit 30. That is, the signal processing and control unit 21 blocks the incident light of the electronic shutter 133L at the timing when the right-eye image is displayed on the main body display unit 30, and the electronic signal is displayed at the timing when the left-eye image is displayed on the main body display unit 30. The incident light from the shutter 133R is blocked.

図17は人が電子メガネ133を装着して、本体表示部30の表示を確認する様子を示している。人は電子メガネ133を装着した状態で、例えば表示領域が撮像装置本体11の背面に設けられた本体表示部30の3D表示を見るようになっている。   FIG. 17 shows a state in which a person wears the electronic glasses 133 and confirms the display on the main body display unit 30. A person sees a 3D display on the main body display unit 30 provided with a display area, for example, on the back of the imaging apparatus main body 11 with the electronic glasses 133 being worn.

次に、このように構成された実施の形態の作用について図18を参照して説明する。図18は図9に対応した表示処理を示している。   Next, the operation of the embodiment thus configured will be described with reference to FIG. FIG. 18 shows display processing corresponding to FIG.

信号処理及び制御部21は、左目用画像と右目用画像とを、時分割で切換えて本体表示部20に表示させる。この場合には、信号処理及び制御部21は、時計部27からの時間情報を用いて、各画像を所定の表示時間で切換えて表示する。   The signal processing and control unit 21 causes the main body display unit 20 to display the left-eye image and the right-eye image in a time-sharing manner. In this case, the signal processing and control unit 21 uses the time information from the clock unit 27 to switch and display each image at a predetermined display time.

いま、左目用画像を表示中であるものとする。なお、信号処理及び制御部21は、時計情報を利用して、左目用画像の表示開始から左目用表示カウンタのカウントアップを開始する。信号処理及び制御部21は、図18のステップS61において、左目用画像の表示から所定の表示時間が経過したか否かを左目用表示カウンタのカウント値によって判定する。経過していない場合には、信号処理及び制御部21は、右目側の電子シャッタ133Rの遮蔽を継続して(ステップS62)、右目に入射する光を制限する。そして、信号処理及び制御部21は、ステップS63において左目用画像信号を本体表示部30に与えて、左目用画像の表示を継続させ、処理を図9のメインルーチンに戻す。   Assume that the left-eye image is being displayed. The signal processing and control unit 21 uses the clock information to start counting up the left-eye display counter from the start of displaying the left-eye image. In step S61 in FIG. 18, the signal processing and control unit 21 determines whether or not a predetermined display time has elapsed from the display of the left-eye image, based on the count value of the left-eye display counter. If it has not elapsed, the signal processing and control unit 21 continues to shield the electronic shutter 133R on the right eye side (step S62) and restricts the light incident on the right eye. Then, in step S63, the signal processing and control unit 21 supplies the left-eye image signal to the main body display unit 30, continues the display of the left-eye image, and returns the processing to the main routine of FIG.

左目用画像の表示から所定の表示時間が経過したことを左目用カウンタのカウント値によって判定すると、信号処理及び制御部21はステップS61からステップS67に移行して右目用表示カウンタをリセットした後、処理をステップS64に移行する。信号処理及び制御部21は、ステップS64において、右目用表示カウンタのカウント値によって右目用画像を所定時間表示済みか否かを判定し、次のステップS65において、左目側の電子シャッタ133Lを遮蔽して、左目に入射する光を制限する。次に、信号処理及び制御部21は、ステップS66において、右目用画像信号を本体表示部30に与えて、右目用画像を表示させ、処理を図9のメインルーチンに戻す
信号処理及び制御部21は、右目用画像の表示から所定の表示時間が経過したことを、右目用カウンタのカウント値によって判定すると、ステップS64からステップS68に移行して左目用表示カウンタをリセットした後メインルーチンに戻す。
If it is determined by the count value of the left-eye counter that a predetermined display time has elapsed since the display of the left-eye image, the signal processing and control unit 21 proceeds from step S61 to step S67 and resets the right-eye display counter. The process proceeds to step S64. In step S64, the signal processing and control unit 21 determines whether the right-eye image has been displayed for a predetermined time based on the count value of the right-eye display counter. In the next step S65, the signal processing and control unit 21 blocks the electronic shutter 133L on the left eye side. Limiting the light incident on the left eye. Next, in step S66, the signal processing and control unit 21 gives the right-eye image signal to the main body display unit 30, displays the right-eye image, and returns the processing to the main routine of FIG. 9. Signal processing and control unit 21 If it is determined from the count value of the right-eye counter that a predetermined display time has elapsed since the display of the right-eye image, the process proceeds from step S64 to step S68 to reset the left-eye display counter and then return to the main routine.

信号処理及び制御部21は、メインルーチンから処理がステップS61に移行すると、左目用表示カウンタのカウント値によって、左目用画像を所定時間表示済みか否かを判定する。   When the process proceeds from the main routine to step S61, the signal processing and control unit 21 determines whether the left-eye image has been displayed for a predetermined time based on the count value of the left-eye display counter.

以後同様の動作を繰り返すことで、電子シャッタ133Lによって左目の入射光を制限すると同時に、本体表示部30に右目用画像を所定期間表示させ、次に、電子シャッタ133Rによって右目の入射光を制限すると同時に、本体表示部30に左目用画像を所定期間表示させる。これにより、本体表示部30を利用した3D表示を可能にする。   Thereafter, the same operation is repeated to limit the incident light of the left eye by the electronic shutter 133L, and simultaneously display the right eye image on the main body display unit 30 for a predetermined period, and then limit the incident light of the right eye by the electronic shutter 133R. At the same time, the left-eye image is displayed on the main body display unit 30 for a predetermined period. Thereby, 3D display using the main body display unit 30 is enabled.

このように本実施の形態においては、1つの表示部のみを有する本体表示部30によって3D表示が可能である。   Thus, in the present embodiment, 3D display is possible by the main body display unit 30 having only one display unit.

10…撮像装置、11…撮像装置本体、12…交換レンズ、13…電子ファインダ、20…本体回路部、21…信号処理及び制御部、22,23,42,52…通信部、24…撮像部、30…本体表示部、40…交換レンズ回路部、50…電子ファインダ回路部。     DESCRIPTION OF SYMBOLS 10 ... Imaging device, 11 ... Imaging device main body, 12 ... Interchangeable lens, 13 ... Electronic finder, 20 ... Main body circuit part, 21 ... Signal processing and control part, 22, 23, 42, 52 ... Communication part, 24 ... Imaging part 30... Main body display unit, 40... Interchangeable lens circuit unit, 50.

Claims (8)

本体と、
撮像部と、
左右の目に対応した左右各々の画像の水平方向の長さが鉛直方向の長さよりも長い横長の左右の画像の撮像を行うことが可能な第1の立体撮影用交換レンズと、左右の目に対応した左右各々の画像の鉛直方向の長さが水平方向の長さよりも長い縦長の左右の画像の撮像を行うことが可能な第2の立体撮影用交換レンズと、通常撮影用交換レンズとを上記本体に対して選択的に取り付け可能な第1の接続部と、
左右の目に対応した2つの表示部を有して複数の画像を表示可能な立体画像表示用ファインダと、単一の表示部を有して単一の画像を表示可能な通常画像表示用ファインダとを上記本体に対して選択的に取り付け可能な第2の接続部と、
上記第1の接続部に、上記第1の立体撮影用交換レンズ、上記第2の立体撮影用交換レンズまたは上記通常撮影用交換レンズのうちいずれか1つの交換レンズが接続された際には、当該接続された交換レンズからの情報と、上記第2の接続部に、上記立体画像表示用ファインダまたは上記通常画像表示用ファインダのいずれかのファインダが接続された際には、当該接続されたファインダからの情報との情報に基づいて、上記第1の接続部に接続された当該交換レンズを介して上記撮像部によって撮像された撮像画像の、上記第2の接続部に接続された当該ファインダへの表示を制御する表示制御部と、
を具備し、
上記第1の立体撮影用交換レンズが上記第1の接続部に接続された場合には上記撮像部から左右の目に対応した左右各々の画像の水平方向の長さが鉛直方向の長さよりも長い横長の前記左右の撮像画像を取得可能とする一方、上記第2の立体撮影用交換レンズが上記第1の接続部に接続された場合には上記撮像部から左右の目に対応した左右各々の画像の鉛直方向の長さが水平方向の長さよりも長い縦長の前記左右の撮像画像を取得可能とし、
上記表示制御部は、上記第2の接続部に上記立体画像表示用ファインダが接続された状態において上記横長の前記左右の撮像画像が取得された場合は当該画像全体を当該立体画像表示用ファインダに対して表示せしめる一方、上記縦長の撮像画像が取得された場合は当該画像の一部を当該立体画像表示用ファインダに対して表示せしめる
ことを特徴とする撮像装置。
The body,
An imaging unit;
And the horizontal direction of the first three-dimensional imaging interchangeable lens capable of taking an horizontally long right and left of the image than the length of the vertical length of the corresponding left and right each image to the left and right eyes, the right and left eyes A second stereoscopic imaging interchangeable lens capable of capturing an image of a longitudinally long left and right image in which the vertical length of each of the left and right images corresponding to is longer than the horizontal length, and a normal imaging interchangeable lens; A first connection portion that can be selectively attached to the main body,
A stereoscopic image display finder having two display units corresponding to the left and right eyes and capable of displaying a plurality of images, and a normal image display finder having a single display unit and capable of displaying a single image A second connection portion that can be selectively attached to the main body,
When any one of the first stereoscopic imaging interchangeable lens, the second stereoscopic imaging interchangeable lens, or the normal imaging interchangeable lens is connected to the first connection portion, When the finder of either the stereoscopic image display finder or the normal image display finder is connected to the information from the connected interchangeable lens and the second connection portion, the connected finder based on the information from the information from said first captured image captured by the imaging section through the connected the interchangeable lens to the connecting portion, the finder connected to the second connecting portion A display control unit for controlling display on
Comprising
When the first interchangeable lens for stereoscopic photography is connected to the first connection portion, the horizontal length of each of the left and right images corresponding to the left and right eyes from the imaging portion is longer than the vertical length. While the left and right captured images can be acquired in a long landscape, when the second interchangeable lens for stereoscopic photography is connected to the first connection unit, left and right corresponding to the left and right eyes from the imaging unit It is possible to acquire the left and right captured images having a vertical length longer than the horizontal length of the image of
In the state where the stereoscopic image display finder is connected to the second connection unit, the display control unit converts the entire image into the stereoscopic image display finder when the horizontally long captured images are acquired. On the other hand, when the vertically long captured image is acquired, a part of the image is displayed on the stereoscopic image display finder .
上記撮像部が配置された上記撮像装置本体の縦横の向きを検出して縦横検出情報を出力する縦横検知部を有し、
上記表示制御部は、上記第1の接続部に、上記第1の立体撮影用交換レンズ、上記第2の立体撮影用交換レンズまたは上記通常撮影用交換レンズのうちいずれか1つの交換レンズが接続された際には、当該接続された交換レンズからの情報と、上記第2の接続部に、上記立体画像表示用ファインダまたは上記通常画像表示用ファインダのいずれかのファインダが接続された際には、当該接続されたファインダからの情報と、上記縦横検出情報と、基づいて、上記撮像画像の表示を制御する
ことを特徴とする請求項1に記載の撮像装置。
It has a vertical and horizontal detection unit that detects vertical and horizontal orientations of the imaging apparatus main body in which the imaging unit is arranged and outputs vertical and horizontal detection information,
In the display control unit, any one of the first stereoscopic imaging interchangeable lens, the second stereoscopic imaging interchangeable lens, or the normal imaging interchangeable lens is connected to the first connection unit. When the finder of either the stereoscopic image display finder or the normal image display finder is connected to the information from the connected interchangeable lens and the second connection portion, The imaging apparatus according to claim 1, wherein display of the captured image is controlled based on information from the connected finder and the vertical / horizontal detection information .
上記表示制御部は、上記第1の接続部に上記第1の立体撮影用交換レンズ、上記第2の立体撮影用交換レンズまたは上記通常撮影用交換レンズが接続されることによって上記交換レンズの情報を取得し、上記第2の接続部に上記立体画像表示用ファインダまたは上記通常画像表示用ファインダが接続されることによって上記ファインダの情報を取得する
ことを特徴とする請求項1に記載の撮像装置。
The display control unit is configured to connect the first stereoscopic imaging interchangeable lens, the second stereoscopic imaging interchangeable lens, or the normal imaging interchangeable lens to the first connection unit, thereby obtaining information on the interchangeable lens. 2. The imaging apparatus according to claim 1, wherein information of the finder is acquired by connecting the stereoscopic image display finder or the normal image display finder to the second connection unit. .
上記表示制御部は、上記第1の接続部に接続された交換レンズの情報、上記縦横検出情報及び上記2つの表示部を結ぶ線の向きの情報に基づいて、上記撮像画像を回転させて上記第2の接続部に接続されたファインダに与えて表示させる
ことを特徴とする請求項2に記載の撮像装置。
The display control unit rotates the captured image based on information on an interchangeable lens connected to the first connection unit, the vertical / horizontal detection information, and information on a direction of a line connecting the two display units. The image pickup apparatus according to claim 2, wherein the image pickup apparatus is displayed on a viewfinder connected to the second connection unit .
上記表示制御部は、上記第1の接続部に接続された交換レンズの情報、上記撮像部の撮像面の情報及び上記第2の接続部に接続されたファインダの情報に基づいて、上記撮像画像を拡大縮小処理して上記第2の接続部に接続されたファインダに与えて表示させる
ことを特徴とする請求項1に記載の撮像装置。
The display control unit is configured to capture the captured image based on information on an interchangeable lens connected to the first connection unit, information on an imaging surface of the imaging unit, and information on a finder connected to the second connection unit. The imaging apparatus according to claim 1, wherein the image is subjected to enlargement / reduction processing and given to a finder connected to the second connection unit for display.
上記第1の立体撮影用交換レンズおよび上記第2の立体撮影用交換レンズは、上記撮像部が配置された撮像装置本体に対して回動自在に取り付けられて、上記撮像装置本体の向きに拘わらず立体撮影を可能にする
ことを特徴とする請求項1に記載の撮像装置。
The first interchangeable lens for stereoscopic photography and the second interchangeable lens for stereoscopic photography are rotatably attached to the imaging device main body on which the imaging unit is arranged, and are related to the orientation of the imaging device main body. The imaging apparatus according to claim 1, wherein stereoscopic imaging is possible.
上記表示制御部は、上記撮像部によって立体撮像画像が得られた場合に、上記撮像部の撮像面の情報及び上記第1の接続部に接続された交換レンズの情報並びに上記縦横検知情報に基づいて、上記撮像部の撮像面上に上記立体撮像画像を構成する右目用画像及び左目用画像が夫々結像する右目用画像領域及び左目用画像領域を設定する
ことを特徴とする請求項2に記載の撮像装置。
When the stereoscopic imaging image is obtained by the imaging unit, the display control unit is based on the information on the imaging surface of the imaging unit, the information on the interchangeable lens connected to the first connection unit, and the vertical / horizontal detection information. The right-eye image region and the left-eye image region in which the right-eye image and the left-eye image forming the stereoscopic image are formed on the imaging surface of the imaging unit, respectively, are set. The imaging device described.
上記撮像部が配置された撮像装置本体に設けられる本体表示部を有し、
上記表示制御部は、上記撮像部によって立体撮像画像が得られた場合に、上記立体撮像画像を構成する右目用画像及び左目用画像を上記本体表示部に時分割に表示させる
ことを特徴とする請求項1に記載の撮像装置。
A main body display unit provided in the main body of the imaging apparatus in which the imaging unit is disposed;
The display control unit displays a right-eye image and a left-eye image constituting the stereoscopic image on the main body display unit in a time division manner when a stereoscopic image is obtained by the imaging unit. The imaging device according to claim 1.
JP2009268135A 2009-11-25 2009-11-25 Imaging device Expired - Fee Related JP5638791B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009268135A JP5638791B2 (en) 2009-11-25 2009-11-25 Imaging device
US12/953,199 US8780185B2 (en) 2009-11-25 2010-11-23 Image pickup apparatus having a display controlled using interchangeable lens information and/or finder information
CN 201010560614 CN102081294B (en) 2009-11-25 2010-11-23 Image pickup apparatus
US14/283,957 US20140368616A1 (en) 2009-11-25 2014-05-21 Image pickup apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009268135A JP5638791B2 (en) 2009-11-25 2009-11-25 Imaging device

Publications (2)

Publication Number Publication Date
JP2011112808A JP2011112808A (en) 2011-06-09
JP5638791B2 true JP5638791B2 (en) 2014-12-10

Family

ID=44087333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009268135A Expired - Fee Related JP5638791B2 (en) 2009-11-25 2009-11-25 Imaging device

Country Status (2)

Country Link
JP (1) JP5638791B2 (en)
CN (1) CN102081294B (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5628913B2 (en) * 2010-06-30 2014-11-19 富士フイルム株式会社 Imaging apparatus and imaging method
JP5973707B2 (en) * 2011-10-14 2016-08-23 オリンパス株式会社 3D endoscope device
EP2919067B1 (en) * 2014-03-12 2017-10-18 Ram Srikanth Mirlay Multi-planar camera apparatus
CN105872336A (en) * 2016-05-24 2016-08-17 北京小米移动软件有限公司 Camera
JP2018033111A (en) * 2016-08-26 2018-03-01 オリンパス株式会社 Image observation device

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61296335A (en) * 1985-06-25 1986-12-27 Asahi Optical Co Ltd Stereo photographing double-lens adapter in single-lens reflex camera
JPH05210142A (en) * 1991-10-07 1993-08-20 Nikon Corp Mode setting device for camera
JP3483963B2 (en) * 1994-12-16 2004-01-06 オリンパス株式会社 Stereo camera
JP4144981B2 (en) * 1999-09-27 2008-09-03 オリンパス株式会社 Stereoscopic image display device
JP2002077945A (en) * 2000-06-07 2002-03-15 Canon Inc Picture recorder, imaging apparatus, imaging system, method for processing signal, method for controlling recording and storage medium
JP4225768B2 (en) * 2002-07-31 2009-02-18 シャープ株式会社 Stereoscopic image data processing apparatus and stereoscopic image data processing program
JP3834016B2 (en) * 2003-05-30 2006-10-18 オリンパス株式会社 Stereo shooting optical system and stereo camera using the same
JP2005040205A (en) * 2003-07-23 2005-02-17 Olympus Corp Three-dimensional endoscope apparatus
JP2005073038A (en) * 2003-08-26 2005-03-17 Casio Comput Co Ltd Electronic equipment with three-dimensional display function
JP2005115251A (en) * 2003-10-10 2005-04-28 Daisuke Omori Stereoscopic video photographing and reproducing apparatus
JP4442190B2 (en) * 2003-10-24 2010-03-31 ソニー株式会社 Stereoscopic image processing device
JP2006165601A (en) * 2004-12-02 2006-06-22 Sony Corp Imaging apparatus and imaging element
JP4275643B2 (en) * 2005-04-19 2009-06-10 稔 稲葉 Digital stereo camera or digital stereo video camera
JP4376194B2 (en) * 2005-03-10 2009-12-02 稔 稲葉 Digital stereo camera or digital stereo video camera and 3D display or 3D projector and printer
US8982181B2 (en) * 2006-06-13 2015-03-17 Newbery Revocable Trust Indenture Digital stereo photographic system
CN201345711Y (en) * 2008-12-16 2009-11-11 胡超 Portable multi-functional stereo image device

Also Published As

Publication number Publication date
JP2011112808A (en) 2011-06-09
CN102081294A (en) 2011-06-01
CN102081294B (en) 2013-06-05

Similar Documents

Publication Publication Date Title
US6278480B1 (en) Compound eye camera system
AU2011277892B2 (en) Variable three-dimensional camera assembly for still photography
US8780185B2 (en) Image pickup apparatus having a display controlled using interchangeable lens information and/or finder information
JP5468482B2 (en) Imaging device
KR20120105495A (en) Stereoscopic imaging device
KR20060097549A (en) Digital stereo camera/digital stereo video camera, 3-dimensional display, 3-dimensional projector, and printer and stereo viewer
JP4771671B2 (en) Imaging device and imaging display device
JP3595634B2 (en) Compound eye camera and image processing method
JP5449535B2 (en) Stereo imaging device and control method thereof
JP2011142632A (en) Camera arrangement, camera system, and camera configuration method
JP5638791B2 (en) Imaging device
JP3612865B2 (en) Video camera equipment
CN103329549B (en) Dimensional video processor, stereoscopic imaging apparatus and three-dimensional video-frequency processing method
CN103339948B (en) 3D video playing device, 3D imaging device, and 3D video playing method
JPH10224820A (en) Compound-eye camera apparatus
US20120307016A1 (en) 3d camera
JP3939127B2 (en) Imaging device
JP5704885B2 (en) Imaging device, imaging method, and imaging control program
JP3543455B2 (en) Video camera equipment
JP5551517B2 (en) Imaging device
JP2001016617A (en) Image pickup device, its convergence control method, storage medium and optical device
JP2005115251A (en) Stereoscopic video photographing and reproducing apparatus
JP2600693B2 (en) 3D image playback device
JPH07311426A (en) Stereoscopic device for video recording machine
JP4496122B2 (en) Stereoscopic video shooting and playback device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141023

R151 Written notification of patent or utility model registration

Ref document number: 5638791

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees