[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2020178341A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2020178341A
JP2020178341A JP2020036927A JP2020036927A JP2020178341A JP 2020178341 A JP2020178341 A JP 2020178341A JP 2020036927 A JP2020036927 A JP 2020036927A JP 2020036927 A JP2020036927 A JP 2020036927A JP 2020178341 A JP2020178341 A JP 2020178341A
Authority
JP
Japan
Prior art keywords
electronic device
pixel
image
unit
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020036927A
Other languages
Japanese (ja)
Inventor
政一 関口
Masaichi Sekiguchi
政一 関口
孝 塩野谷
Takashi Shionoya
孝 塩野谷
敏之 神原
Toshiyuki Kambara
敏之 神原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2020036927A priority Critical patent/JP2020178341A/en
Publication of JP2020178341A publication Critical patent/JP2020178341A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

To provide an electronic apparatus improved in visibility of an image.SOLUTION: An electronic apparatus 1 comprises: an imaging unit 20 that can capture a first area at a first frame rate, and capture a second area at a second frame rate higher than the first frame rate; and a display control unit 70 that causes a first display unit 51 to display at least images captured in the first area and the second area, and causes a second display unit 53 to display the image captured in the second area.SELECTED DRAWING: Figure 5

Description

本発明は、撮像素子を備えた電子機器に関する。 The present invention relates to an electronic device including an image sensor.

裏面照射型撮像チップと信号処理チップとが積層された撮像素子(以下、積層型撮像素子という)を備えた電子機器が提案されている(特許文献1参照)。積層型撮像素子は、裏面照射型撮像チップと信号処理チップとが、所定の領域ごとにマイクロバンプを介して接続されるように積層されている。 An electronic device including an image pickup device in which a back-illuminated image pickup chip and a signal processing chip are laminated (hereinafter referred to as a stacked image pickup device) has been proposed (see Patent Document 1). In the stacked image sensor, the back-illuminated image sensor and the signal processing chip are laminated so as to be connected to each predetermined region via micro bumps.

特開2006−49361号公報Japanese Unexamined Patent Publication No. 2006-49361

しかしながら、従来の積層型撮像素子を備えた電子機器において、1または2以上の上記領域を有するブロックに画像を分けて、該ブロックごとに撮像画像を取得する提案は多くなく、積層型撮像素子を備えた電子機器の使い勝手が十分とはいえなかった。 However, in an electronic device equipped with a conventional stacked image sensor, there are not many proposals to divide an image into blocks having one or more of the above regions and acquire an image captured for each block, and the stacked image sensor is used. The usability of the electronic devices provided was not sufficient.

発明の一態様による電子機器は、行方向と列方向とにおいてそれぞれ配置される複数の画素と、前記複数の画素のうち第1画素に接続され、前記第1画素を制御するための第1制御信号が出力される第1制御線と、前記複数の画素のうち、前記第1画素から行方向側に配置される第2画素に接続され、前記第2画素を制御するための第2制御信号が出力される第2制御線と、を含む撮像素子と、前記第1画素からの第1信号に基づいて生成される第1画像と、前記第2画素からの第2信号に基づいて生成される第2画像と、を表示部に表示させる制御部と、を備える。 The electronic device according to one aspect of the invention is connected to a plurality of pixels arranged in the row direction and the column direction, and the first pixel of the plurality of pixels, and is a first control for controlling the first pixel. A second control signal connected to a first control line from which a signal is output and a second pixel arranged on the row direction side from the first pixel among the plurality of pixels to control the second pixel. Is generated based on an image pickup element including a second control line from which is output, a first image generated based on the first signal from the first pixel, and a second signal from the second pixel. A second image and a control unit for displaying the second image on the display unit are provided.

本発明によれば、画像の視認性を向上した電子機器を実現できる。 According to the present invention, it is possible to realize an electronic device having improved image visibility.

積層型撮像素子の断面図である。It is sectional drawing of the laminated type image sensor. 撮像チップの画素配列と単位領域を説明する図である。It is a figure explaining the pixel arrangement and the unit area of an image pickup chip. 撮像チップの単位領域に対応する回路図である。It is a circuit diagram corresponding to the unit area of an image pickup chip. 撮像素子の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of an image sensor. 一実施の形態による撮像装置の構成を例示するブロック図である。It is a block diagram which illustrates the structure of the image pickup apparatus by one Embodiment. 撮像装置に設けられた第1表示部および第2表示部を説明する外観図である。It is external drawing explaining the 1st display part and the 2nd display part provided in the image pickup apparatus. 図7(a)は、注目領域および周辺領域を決定する前のライブビュー画像を例示する図である。図7(b)は、ライブビュー画像に基づく人体検出処理によって制御部で決定された注目領域を例示する図である。FIG. 7A is a diagram illustrating a live view image before determining the region of interest and the peripheral region. FIG. 7B is a diagram illustrating a region of interest determined by the control unit by the human body detection process based on the live view image. 図8(a)は、周辺領域に対応して取得される画像を示す図、図8(b)は、注目領域に対応して取得される画像を示す図、図8(c)は、合成される第1ライブビュー画像を例示する図である。FIG. 8 (a) is a diagram showing an image acquired corresponding to the peripheral region, FIG. 8 (b) is a diagram showing an image acquired corresponding to the region of interest, and FIG. 8 (c) is a composite. It is a figure which illustrates the 1st live view image to be done. 撮像装置の制御部が実行する撮影動作の流れを説明するフローチャートである。It is a flowchart explaining the flow of the photographing operation executed by the control part of an image pickup apparatus. 図10(a),(b)は、複数の主要被写体が存在する場面を例示する図である。10 (a) and 10 (b) are diagrams illustrating a scene in which a plurality of main subjects exist. 撮像装置に設けられた第1表示部および第2表示部を説明する外観図である。It is external drawing explaining the 1st display part and the 2nd display part provided in the image pickup apparatus.

以下、図面を参照して本発明を実施するための形態について説明する。
<積層型撮像素子の説明>
始めに、本発明の一実施の形態による電子機器(例えば撮像装置1)に搭載する積層型撮像素子100について説明する。なお、この積層型撮像素子100は、本願出願人が先に出願した特願2012−139026号に記載されているものである。図1は、積層型撮像素子100の断面図である。撮像素子100は、入射光に対応した画素信号を出力する裏面照射型撮像チップ113と、画素信号を処理する信号処理チップ111と、画素信号を記憶するメモリチップ112とを備える。これら撮像チップ113、信号処理チップ111およびメモリチップ112は積層されており、Cu等の導電性を有するバンプ109により互いに電気的に接続される。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
<Explanation of stacked image sensor>
First, a stacked image sensor 100 mounted on an electronic device (for example, an image pickup device 1) according to an embodiment of the present invention will be described. The stacked image sensor 100 is described in Japanese Patent Application No. 2012-139026 previously filed by the applicant of the present application. FIG. 1 is a cross-sectional view of the stacked image sensor 100. The image sensor 100 includes a back-illuminated image pickup chip 113 that outputs a pixel signal corresponding to incident light, a signal processing chip 111 that processes the pixel signal, and a memory chip 112 that stores the pixel signal. The imaging chip 113, the signal processing chip 111, and the memory chip 112 are laminated and electrically connected to each other by a conductive bump 109 such as Cu.

なお、図示するように、入射光は主に白抜き矢印で示すZ軸プラス方向へ向かって入射する。本実施形態においては、撮像チップ113において、入射光が入射する側の面を裏面と称する。また、座標軸に示すように、Z軸に直交する紙面左方向をX軸プラス方向、Z軸およびX軸に直交する紙面手前方向をY軸プラス方向とする。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。 As shown in the figure, the incident light is mainly incident in the Z-axis plus direction indicated by the white arrow. In the present embodiment, in the image pickup chip 113, the surface on the side where the incident light is incident is referred to as the back surface. Further, as shown in the coordinate axes, the left direction of the paper surface orthogonal to the Z axis is defined as the X-axis plus direction, and the Z-axis and the front direction of the paper surface orthogonal to the X-axis are defined as the Y-axis plus direction. In some subsequent figures, the coordinate axes are displayed so that the orientation of each figure can be understood with reference to the coordinate axes of FIG.

撮像チップ113の一例は、裏面照射型のMOSイメージセンサである。PD層106は、配線層108の裏面側に配されている。PD層106は、二次元的に配され、入射光に応じた電荷を蓄積する複数のPD(フォトダイオード)104、および、PD104に対応して設けられたトランジスタ105を有する。 An example of the image pickup chip 113 is a back-illuminated MOS image sensor. The PD layer 106 is arranged on the back surface side of the wiring layer 108. The PD layer 106 has a plurality of PDs (photodiodes) 104 arranged two-dimensionally and accumulating charges according to incident light, and a transistor 105 provided corresponding to the PD 104.

PD層106における入射光の入射側にはパッシベーション膜103を介してカラーフィルタ102が設けられる。カラーフィルタ102は、互いに異なる波長領域を透過する複数の種類を有しており、PD104のそれぞれに対応して特定の配列を有している。カラーフィルタ102の配列については後述する。カラーフィルタ102、PD104およびトランジスタ105の組が、一つの画素を形成する。 A color filter 102 is provided on the incident side of the incident light in the PD layer 106 via the passivation film 103. The color filter 102 has a plurality of types that transmit different wavelength regions from each other, and has a specific arrangement corresponding to each of the PD 104. The arrangement of the color filters 102 will be described later. A set of a color filter 102, a PD 104, and a transistor 105 forms one pixel.

カラーフィルタ102における入射光の入射側には、それぞれの画素に対応して、マイクロレンズ101が設けられる。マイクロレンズ101は、対応するPD104へ向けて入射光を集光する。 A microlens 101 is provided on the incident side of the incident light in the color filter 102 corresponding to each pixel. The microlens 101 collects incident light toward the corresponding PD 104.

配線層108は、PD層106からの画素信号を信号処理チップ111に伝送する配線107を有する。配線107は多層であってもよく、また、受動素子および能動素子が設けられてもよい。 The wiring layer 108 has a wiring 107 that transmits a pixel signal from the PD layer 106 to the signal processing chip 111. The wiring 107 may have multiple layers, and may be provided with passive elements and active elements.

配線層108の表面には複数のバンプ109が配される。当該複数のバンプ109が信号処理チップ111の対向する面に設けられた複数のバンプ109と位置合わせされて、撮像チップ113と信号処理チップ111とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。 A plurality of bumps 109 are arranged on the surface of the wiring layer 108. The plurality of bumps 109 are aligned with the plurality of bumps 109 provided on the facing surfaces of the signal processing chip 111, and the imaging chip 113 and the signal processing chip 111 are aligned by pressurization or the like. The bumps 109 are joined together and electrically connected.

同様に、信号処理チップ111およびメモリチップ112の互いに対向する面には、複数のバンプ109が配される。これらのバンプ109が互いに位置合わせされて、信号処理チップ111とメモリチップ112とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。 Similarly, a plurality of bumps 109 are arranged on the surfaces of the signal processing chip 111 and the memory chip 112 facing each other. These bumps 109 are aligned with each other, and the signal processing chip 111 and the memory chip 112 are pressurized, so that the aligned bumps 109 are joined to each other and electrically connected.

なお、バンプ109間の接合には、固相拡散によるCuバンプ接合に限らず、はんだ溶融によるマイクロバンプ結合を採用してもよい。また、バンプ109は、例えば後述する一つの単位領域に対して一つ程度設ければよい。したがって、バンプ109の大きさは、PD104のピッチよりも大きくてもよい。また、画素が配列された画素領域以外の周辺領域において、画素領域に対応するバンプ109よりも大きなバンプを併せて設けてもよい。 The bonding between the bumps 109 is not limited to Cu bump bonding by solid phase diffusion, and micro bump bonding by solder melting may be adopted. Further, for example, about one bump 109 may be provided for one unit area described later. Therefore, the size of the bump 109 may be larger than the pitch of the PD 104. Further, in the peripheral region other than the pixel region in which the pixels are arranged, a bump larger than the bump 109 corresponding to the pixel region may be provided together.

信号処理チップ111は、表裏面にそれぞれ設けられた回路を互いに接続するTSV(シリコン貫通電極)110を有する。TSV110は、周辺領域に設けられることが好ましい。また、TSV110は、撮像チップ113の周辺領域、メモリチップ112にも設けられてよい。 The signal processing chip 111 has TSVs (Through Silicon Vias) 110 that connect circuits provided on the front and back surfaces to each other. The TSV 110 is preferably provided in the peripheral region. Further, the TSV 110 may also be provided in the peripheral area of the image pickup chip 113 and the memory chip 112.

図2は、撮像チップ113の画素配列と単位領域131を説明する図である。特に、撮像チップ113を裏面側から観察した様子を示す。画素領域には例えば2000万個以上もの画素がマトリックス状に配列されている。本実施形態においては、例えば隣接する4画素×4画素の16画素が一つの単位領域131を形成する。図の格子線は、隣接する画素がグループ化されて単位領域131を形成する概念を示す。単位領域131を形成する画素の数は、これに限られず1000個程度、例えば32画素×64画素でもよいし、それ以上でもそれ以下(例えば1画素)でもよい。 FIG. 2 is a diagram illustrating a pixel arrangement of the image pickup chip 113 and a unit area 131. In particular, the state in which the image pickup chip 113 is observed from the back surface side is shown. For example, 20 million or more pixels are arranged in a matrix in the pixel area. In the present embodiment, for example, 16 pixels of adjacent 4 pixels × 4 pixels form one unit area 131. The grid lines in the figure show the concept that adjacent pixels are grouped to form a unit region 131. The number of pixels forming the unit region 131 is not limited to this, and may be about 1000, for example, 32 pixels × 64 pixels, or more or less (for example, 1 pixel).

画素領域の部分拡大図に示すように、単位領域131は、緑色画素Gb、Gr、青色画素Bおよび赤色画素Rの4画素から成るいわゆるベイヤー配列を、上下左右に4つ内包する。緑色画素は、カラーフィルタ102として緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。同様に、青色画素は、カラーフィルタ102として青色フィルタを有する画素であって青色波長帯の光を受光し、赤色画素は、カラーフィルタ102として赤色フィルタを有する画素であって赤色波長帯の光を受光する。 As shown in the partially enlarged view of the pixel region, the unit region 131 includes four so-called Bayer arrays including four pixels of green pixels Gb, Gr, blue pixels B, and red pixels R in the vertical and horizontal directions. The green pixel is a pixel having a green filter as the color filter 102, and receives light in the green wavelength band among the incident light. Similarly, a blue pixel is a pixel having a blue filter as a color filter 102 and receives light in a blue wavelength band, and a red pixel is a pixel having a red filter as a color filter 102 and receives light in a red wavelength band. Receive light.

本実施形態において、1ブロックにつき単位領域131を少なくとも1つ含むように複数のブロックが定義され、各ブロックはそれぞれ異なる制御パラメータで各ブロックに含まれる画素を制御できる。つまり、あるブロックに含まれる画素群と、別のブロックに含まれる画素群とで、撮像条件が異なる撮像信号を取得できる。制御パラメータの例は、フレームレート、ゲイン、間引き率、画素信号を加算する加算行数または加算列数、電荷の蓄積時間または蓄積回数、デジタル化のビット数等である。さらに、制御パラメータは、画素からの画像信号取得後の画像処理におけるパラメータであってもよい。 In the present embodiment, a plurality of blocks are defined so that each block includes at least one unit area 131, and each block can control the pixels included in each block with different control parameters. That is, it is possible to acquire an imaging signal having different imaging conditions between the pixel group included in a certain block and the pixel group included in another block. Examples of control parameters are frame rate, gain, thinning rate, number of rows or columns to be added to add pixel signals, charge accumulation time or number of times, digitization bits, and the like. Further, the control parameter may be a parameter in image processing after acquiring an image signal from a pixel.

図3は、撮像チップ113の単位領域131に対応する回路図である。図3において、代表的に点線で囲む矩形が、1画素に対応する回路を表す。なお、以下に説明する各トランジスタの少なくとも一部は、図1のトランジスタ105に対応する。 FIG. 3 is a circuit diagram corresponding to the unit region 131 of the imaging chip 113. In FIG. 3, a rectangle surrounded by a dotted line typically represents a circuit corresponding to one pixel. At least a part of each transistor described below corresponds to the transistor 105 of FIG.

上述のように、単位領域131は、16画素から形成される。それぞれの画素に対応する16個のPD104は、それぞれ転送トランジスタ302に接続され、各転送トランジスタ302の各ゲートには、転送パルスが供給されるTX配線307に接続される。本実施形態において、TX配線307は、16個の転送トランジスタ302に対して共通接続される。 As described above, the unit region 131 is formed from 16 pixels. The 16 PD 104s corresponding to the respective pixels are connected to the transfer transistor 302, and each gate of each transfer transistor 302 is connected to the TX wiring 307 to which the transfer pulse is supplied. In the present embodiment, the TX wiring 307 is commonly connected to the 16 transfer transistors 302.

各転送トランジスタ302のドレインは、対応する各リセットトランジスタ303のソースに接続されると共に、転送トランジスタ302のドレインとリセットトランジスタ303のソース間のいわゆるフローティングディフュージョンFDが増幅トランジスタ304のゲートに接続される。リセットトランジスタ303のドレインは電源電圧が供給されるVdd配線310に接続され、そのゲートはリセットパルスが供給されるリセット配線306に接続される。本実施形態において、リセット配線306は、16個のリセットトランジスタ303に対して共通接続される。 The drain of each transfer transistor 302 is connected to the source of each corresponding reset transistor 303, and the so-called floating diffusion FD between the drain of the transfer transistor 302 and the source of the reset transistor 303 is connected to the gate of the amplification transistor 304. The drain of the reset transistor 303 is connected to the Vdd wiring 310 to which the power supply voltage is supplied, and its gate is connected to the reset wiring 306 to which the reset pulse is supplied. In the present embodiment, the reset wiring 306 is commonly connected to the 16 reset transistors 303.

各々の増幅トランジスタ304のドレインは、電源電圧が供給されるVdd配線310に接続される。また、各々の増幅トランジスタ304のソースは、対応する各々の選択トランジスタ305のドレインに接続される。選択トランジスタの各ゲートには、選択パルスが供給されるデコーダ配線308に接続される。本実施形態において、デコーダ配線308は、16個の選択トランジスタ305に対してそれぞれ独立に設けられる。そして、各々の選択トランジスタ305のソースは、共通の出力配線309に接続される。負荷電流源311は、出力配線309に電流を供給する。すなわち、選択トランジスタ305に対する出力配線309は、ソースフォロアにより形成される。なお、負荷電流源311は、撮像チップ113側に設けてもよいし、信号処理チップ111側に設けてもよい。 The drain of each amplification transistor 304 is connected to the Vdd wiring 310 to which the power supply voltage is supplied. Also, the source of each amplification transistor 304 is connected to the drain of each corresponding selection transistor 305. Each gate of the selection transistor is connected to a decoder wiring 308 to which a selection pulse is supplied. In the present embodiment, the decoder wiring 308 is provided independently for each of the 16 selection transistors 305. Then, the source of each selection transistor 305 is connected to the common output wiring 309. The load current source 311 supplies current to the output wiring 309. That is, the output wiring 309 for the selection transistor 305 is formed by the source follower. The load current source 311 may be provided on the imaging chip 113 side or the signal processing chip 111 side.

ここで、電荷の蓄積開始から蓄積終了後の画素出力までの流れを説明する。リセット配線306を通じてリセットパルスがリセットトランジスタ303に印加され、同時にTX配線307を通じて転送パルスが転送トランジスタ302に印加されると、PD104およびフローティングディフュージョンFDの電位がリセットされる。 Here, the flow from the start of charge accumulation to the pixel output after the end of accumulation will be described. When a reset pulse is applied to the reset transistor 303 through the reset wiring 306 and at the same time a transfer pulse is applied to the transfer transistor 302 through the TX wiring 307, the potentials of the PD 104 and the floating diffusion FD are reset.

PD104は、転送パルスの印加が解除されると、受光する入射光を電荷に変換して蓄積する。その後、リセットパルスが印加されていない状態で再び転送パルスが印加されると、蓄積された電荷はフローティングディフュージョンFDへ転送され、フローティングディフュージョンFDの電位は、リセット電位から電荷蓄積後の信号電位になる。そして、デコーダ配線308を通じて選択パルスが選択トランジスタ305に印加されると、フローティングディフュージョンFDの信号電位の変動が、増幅トランジスタ304および選択トランジスタ305を介して出力配線309に伝わる。これにより、リセット電位と信号電位とに対応する画素信号は、単位画素から出力配線309に出力される。 When the application of the transfer pulse is released, the PD 104 converts the received incident light into an electric charge and accumulates it. After that, when the transfer pulse is applied again without the reset pulse being applied, the accumulated charge is transferred to the floating diffusion FD, and the potential of the floating diffusion FD changes from the reset potential to the signal potential after charge accumulation. .. Then, when the selection pulse is applied to the selection transistor 305 through the decoder wiring 308, the fluctuation of the signal potential of the floating diffusion FD is transmitted to the output wiring 309 via the amplification transistor 304 and the selection transistor 305. As a result, the pixel signal corresponding to the reset potential and the signal potential is output from the unit pixel to the output wiring 309.

図3に示すように、本実施形態においては、単位領域131を形成する16画素に対して、リセット配線306とTX配線307が共通である。すなわち、リセットパルスと転送パルスはそれぞれ、16画素全てに対して同時に印加される。したがって、単位領域131を形成する全ての画素は、同一のタイミングで電荷蓄積を開始し、同一のタイミングで電荷蓄積を終了する。ただし、蓄積された電荷に対応する画素信号は、それぞれの選択トランジスタ305に選択パルスが順次印加されることにより、選択的に出力配線309から出力される。また、リセット配線306、TX配線307、出力配線309は、単位領域131毎に別個に設けられる。 As shown in FIG. 3, in the present embodiment, the reset wiring 306 and the TX wiring 307 are common to the 16 pixels forming the unit region 131. That is, the reset pulse and the transfer pulse are applied to all 16 pixels at the same time. Therefore, all the pixels forming the unit region 131 start the charge accumulation at the same timing and end the charge accumulation at the same timing. However, the pixel signal corresponding to the accumulated charge is selectively output from the output wiring 309 by sequentially applying the selection pulse to each selection transistor 305. Further, the reset wiring 306, the TX wiring 307, and the output wiring 309 are separately provided for each unit area 131.

このように単位領域131を基準として回路を構成することにより、単位領域131ごとに電荷蓄積時間を制御することができる。換言すると、単位領域131間で、異なったフレームレートによる画素信号をそれぞれ出力させることができる。更に言えば、一方の単位領域131に1回の電荷蓄積を行わせている間に、他方の単位領域131に何回もの電荷蓄積を繰り返させてその都度画素信号を出力させることにより、これらの単位領域131間で異なるフレームレートで動画用の各フレームを出力することもできる。 By configuring the circuit with the unit region 131 as a reference in this way, the charge accumulation time can be controlled for each unit region 131. In other words, pixel signals with different frame rates can be output between the unit regions 131. Furthermore, while the one unit region 131 is made to perform one charge accumulation, the other unit region 131 is made to repeat the charge accumulation many times to output a pixel signal each time. It is also possible to output each frame for moving images at different frame rates between the unit areas 131.

図4は、撮像素子100の機能的構成を示すブロック図である。アナログのマルチプレクサ411は、単位領域131を形成する16個のPD104を順番に選択して、それぞれの画素信号を当該単位領域131に対応して設けられた出力配線309へ出力させる。マルチプレクサ411は、PD104と共に、撮像チップ113に形成される。 FIG. 4 is a block diagram showing a functional configuration of the image sensor 100. The analog multiplexer 411 sequentially selects 16 PD 104s forming the unit area 131, and outputs each pixel signal to the output wiring 309 provided corresponding to the unit area 131. The multiplexer 411 is formed on the imaging chip 113 together with the PD 104.

マルチプレクサ411を介して出力された画素信号は、信号処理チップ111に形成された、相関二重サンプリング(CDS)・アナログ/デジタル(A/D)変換を行う信号処理回路412により、CDSおよびA/D変換が行われる。A/D変換された画素信号は、デマルチプレクサ413に引き渡され、それぞれの画素に対応する画素メモリ414に格納される。デマルチプレクサ413および画素メモリ414は、メモリチップ112に形成される。 The pixel signal output via the multiplexer 411 is CDS and A / by a signal processing circuit 412 formed on the signal processing chip 111 that performs correlated double sampling (CDS) analog / digital (A / D) conversion. D conversion is performed. The A / D converted pixel signal is passed to the demultiplexer 413 and stored in the pixel memory 414 corresponding to each pixel. The demultiplexer 413 and the pixel memory 414 are formed on the memory chip 112.

演算回路415は、画素メモリ414に格納された画素信号を処理して後段の画像処理部に引き渡す。演算回路415は、信号処理チップ111に設けられてもよいし、メモリチップ112に設けられてもよい。なお、図4では1つの単位領域131の分の接続を示すが、実際にはこれらが単位領域131ごとに存在して、並列で動作する。ただし、演算回路415は単位領域131ごとに存在しなくても良く、例えば、一つの演算回路415がそれぞれの単位領域131に対応する画素メモリ414の値を順に参照しながらシーケンシャルに処理してもよい。 The arithmetic circuit 415 processes the pixel signal stored in the pixel memory 414 and hands it over to the image processing unit in the subsequent stage. The arithmetic circuit 415 may be provided on the signal processing chip 111 or the memory chip 112. Although FIG. 4 shows the connections for one unit area 131, in reality, these exist for each unit area 131 and operate in parallel. However, the arithmetic circuit 415 does not have to exist for each unit area 131. For example, even if one arithmetic circuit 415 processes sequentially while referring to the value of the pixel memory 414 corresponding to each unit area 131 in order. Good.

上記の通り、単位領域131のそれぞれに対応して出力配線309が設けられている。撮像素子100は撮像チップ113、信号処理チップ111およびメモリチップ112を積層しているので、これら出力配線309にバンプ109を用いたチップ間の電気的接続を用いることにより、各チップを面方向に大きくすることなく配線を引き回すことができる。 As described above, the output wiring 309 is provided corresponding to each of the unit regions 131. Since the image sensor 100 has an image pickup chip 113, a signal processing chip 111, and a memory chip 112 stacked on top of each other, by using an electrical connection between the chips using bumps 109 for these output wirings 309, each chip is placed in the plane direction. Wiring can be routed without making it large.

<撮像装置の説明>
図5は、上述した撮像素子100を有する撮像装置1の構成を例示するブロック図である。図5において、撮像装置1は、撮像光学系10、撮像部20、画像処理部30、ワークメモリ40、表示部50、記録部60、および制御部70を有する。
<Explanation of imaging device>
FIG. 5 is a block diagram illustrating the configuration of the image pickup device 1 having the image pickup device 100 described above. In FIG. 5, the image pickup apparatus 1 includes an image pickup optical system 10, an image pickup unit 20, an image processing unit 30, a work memory 40, a display unit 50, a recording unit 60, and a control unit 70.

撮像光学系10は、複数のレンズから構成され、被写界からの光束を撮像部20へ導く。撮像光学系10は、撮像装置1と一体に構成されていても、撮像装置1に対して交換可能に構成されていてもよい。また、撮像光学系10には、フォーカスレンズを内蔵していても、ズームレンズを内蔵していてもよい。 The imaging optical system 10 is composed of a plurality of lenses, and guides a light flux from the field of view to the imaging unit 20. The image pickup optical system 10 may be integrally configured with the image pickup device 1 or may be interchangeably configured with respect to the image pickup device 1. Further, the imaging optical system 10 may have a built-in focus lens or a built-in zoom lens.

撮像部20は、上述した撮像素子100と、撮像素子100を駆動する駆動部21とを有する。撮像素子100は、駆動部21から出力される制御信号によって駆動制御されることにより、上述したブロック単位で独立した蓄積制御が可能である。駆動部21に対する上記ブロックの位置や形状、その範囲などの指示は、制御部70が行う。 The image pickup unit 20 includes the above-mentioned image pickup element 100 and a drive unit 21 that drives the image pickup element 100. By driving and controlling the image sensor 100 by the control signal output from the driving unit 21, the above-mentioned block unit can be independently accumulated and controlled. The control unit 70 gives instructions such as the position, shape, and range of the block to the drive unit 21.

画像処理部30は、ワークメモリ40と協働して、撮像部20で撮像された画像データに対する画像処理を行う。本実施形態において、画像処理部30は、通常の画像処理(色信号処理、ガンマ補正など)に加えて、画像に含まれる主要被写体の検出処理も行う。画像処理部30による主要被写体の検出は、公知の顔検出機能を用いて行うことができる。また、顔検出に加えて、例えば特開2010-16621号公報(US2010/0002940号)に記載されているように、画像に含まれる人体を主要被写体として検出するようにしてもよい。 The image processing unit 30 cooperates with the work memory 40 to perform image processing on the image data captured by the image capturing unit 20. In the present embodiment, the image processing unit 30 also performs detection processing of a main subject included in the image in addition to normal image processing (color signal processing, gamma correction, etc.). The main subject can be detected by the image processing unit 30 by using a known face detection function. Further, in addition to face detection, for example, as described in Japanese Patent Application Laid-Open No. 2010-16621 (US2010 / 0002940), the human body included in the image may be detected as the main subject.

ワークメモリ40は、JPEG圧縮前後やMPEG圧縮前後の画像データなどを一時的に記憶する。表示部50は、例えば液晶表示パネルによって構成され、撮像部20で撮像された画像(静止画や動画)や各種情報を表示したり、操作入力用画面を表示したりする。本実施形態による撮像装置1は、表示部50として第1表示部51および第2表示部53を有し、第1表示部51に第1タッチパネル52が、第2表示部53に第2タッチパネル54が、それぞれ組み込まれている。 The work memory 40 temporarily stores image data before and after JPEG compression and before and after MPEG compression. The display unit 50 is composed of, for example, a liquid crystal display panel, and displays images (still images and moving images) captured by the image pickup unit 20 and various information, and displays an operation input screen. The imaging device 1 according to the present embodiment has a first display unit 51 and a second display unit 53 as display units 50, the first display unit 51 has a first touch panel 52, and the second display unit 53 has a second touch panel 54. However, each is incorporated.

図6は、撮像装置1に設けられた第1表示部51および第2表示部53を説明する外観図である。図6において、第1表示部51は撮像装置1の背面に設けられ、第2表示部53はヒンジ部55を介して折りたたみ可能に設けられる。第1タッチパネル52は、第1表示部51にユーザが触れた位置を示す信号を出力し、第2タッチパネル54は、第2表示部53にユーザが触れた位置を示す信号を出力する。 FIG. 6 is an external view illustrating the first display unit 51 and the second display unit 53 provided in the image pickup apparatus 1. In FIG. 6, the first display unit 51 is provided on the back surface of the image pickup apparatus 1, and the second display unit 53 is provided so as to be foldable via the hinge portion 55. The first touch panel 52 outputs a signal indicating the position where the user touches the first display unit 51, and the second touch panel 54 outputs a signal indicating the position where the user touches the second display unit 53.

本実施形態では、第1表示部51および第2表示部53によって表示部50を構成するようにしたが、この代わりに、表示部50を1つの表示装置で構成し、この表示装置を2つの表示領域に分けて分割表示させ、第1の表示領域を第1表示部51による表示とし、第2の表示領域を第2表示部53による表示として扱ってもよい。また、表示部50を1つの表示装置で構成し、この表示装置に第1表示部51に表示させるべき表示をさせたり、第2表示部53に表示させるべき表示をさせたりするように、表示内容を切り替えるように構成してもよい。例えば、表示部50に設けられているタッチパネルが操作されたタイミングで表示内容を切り替える。 In the present embodiment, the display unit 50 is configured by the first display unit 51 and the second display unit 53, but instead, the display unit 50 is configured by one display device, and the display devices are divided into two. The display area may be divided and displayed, the first display area may be treated as the display by the first display unit 51, and the second display area may be treated as the display by the second display unit 53. Further, the display unit 50 is composed of one display device, and the display device is displayed so as to display a display to be displayed on the first display unit 51 or a display to be displayed on the second display unit 53. It may be configured to switch the contents. For example, the display content is switched at the timing when the touch panel provided on the display unit 50 is operated.

図5の説明に戻ると、記録部60は、メモリカードなどの記憶媒体に画像データなどの各種データを記憶させる。制御部70はCPUを有し、撮像装置1による全体の動作を制御する。本実施形態では、制御部70は、撮像素子100の撮像面を複数のブロックに分け、ブロック間において異なるフレームレートで画像を取得させる。このために制御部70は、ブロックの位置、形状、範囲、および各ブロック用の制御パラメータを駆動部21へ指示する。 Returning to the description of FIG. 5, the recording unit 60 stores various data such as image data in a storage medium such as a memory card. The control unit 70 has a CPU and controls the entire operation of the image pickup apparatus 1. In the present embodiment, the control unit 70 divides the image pickup surface of the image pickup device 100 into a plurality of blocks, and causes the blocks to acquire images at different frame rates. For this purpose, the control unit 70 instructs the drive unit 21 of the position, shape, range, and control parameters for each block.

<注目領域と周辺領域>
本実施形態では、画面内に注目領域と周辺領域という概念を導入し、上記複数のブロックに対応させる。制御部70は、例えばライブビュー画像に基づいて、上記人体検出処理によって検出される人体を包含する領域を注目領域とする。そして、注目領域以外の領域を周辺領域とする。ここで、ライブビュー画像は本撮像が行われる前のプレビュー画像とも呼ばれ、撮像素子100によって所定のフレームレート(例えば90fps)で取得されるモニター用の画像をいう。
<Area of interest and surrounding area>
In the present embodiment, the concept of the area of interest and the peripheral area is introduced in the screen to correspond to the plurality of blocks. The control unit 70 sets a region including a human body detected by the human body detection process as a region of interest based on, for example, a live view image. Then, a region other than the region of interest is set as a peripheral region. Here, the live view image is also called a preview image before the main imaging is performed, and refers to a monitor image acquired by the image sensor 100 at a predetermined frame rate (for example, 90 fps).

人体検出処理を行う代わりに、ライブビュー画像を構成する複数のフレーム間から動きベクトルを検出し、この動きベクトルに基づいて検出される移動被写体を包含する領域を注目領域としてもよい。 Instead of performing the human body detection process, a motion vector may be detected between a plurality of frames constituting the live view image, and a region including a moving subject detected based on the motion vector may be a region of interest.

また、表示部50のうち第1表示部51にライブビュー画像を表示した状態で、このライブビュー画像を視認するユーザが第1タッチパネル52に触れた位置に対応する(表示されている)主要被写体の領域を注目領域としてもよい。 Further, the main subject corresponding to the position where the user who visually recognizes the live view image touches the first touch panel 52 while the live view image is displayed on the first display unit 51 of the display unit 50 (displayed). The area of interest may be the area of interest.

なお、表示部50のうち第2表示部53にライブビュー画像を表示した状態で、このライブビュー画像を視認するユーザが第2タッチパネル54に触れた位置に対応する(表示されている)主要被写体の領域を注目領域としてもよい。 The main subject (displayed) corresponding to the position where the user who visually recognizes the live view image touches the second touch panel 54 while the live view image is displayed on the second display unit 53 of the display unit 50. The area of interest may be the area of interest.

制御部70は、このように注目領域および周辺領域を決定すると、撮像素子100を注目領域に対応するブロックと周辺領域に対応するブロックとに分けて蓄積制御するように、駆動部21へ指示を送る。なお、注目領域および周辺領域を決定する前のライブビュー画像は、画面全体で共通の制御パラメータを適用する。 When the control unit 70 determines the region of interest and the peripheral region in this way, the control unit 70 instructs the drive unit 21 to divide the image sensor 100 into a block corresponding to the region of interest and a block corresponding to the peripheral region for storage control. send. Note that the control parameters common to the entire screen are applied to the live view image before the region of interest and the peripheral region are determined.

図7(a)は、注目領域および周辺領域を決定する前のライブビュー画像を例示する図である。図7(a)において、ライブビュー画像は、例えば、縦6×横8の計48の単位領域131で構成されている。図7(a)においては単位領域131の形状が縦長であるが、単位領域131の形状は正方形であっても横長であってもよい。 FIG. 7A is a diagram illustrating a live view image before determining the region of interest and the peripheral region. In FIG. 7A, the live view image is composed of, for example, a total of 48 unit areas 131 of 6 vertical × 8 horizontal. In FIG. 7A, the shape of the unit region 131 is vertically long, but the shape of the unit region 131 may be square or horizontally long.

ここで、注目領域および周辺領域を決定する前のライブビュー画像を表示部50(第1表示部51または第2表示部53)に表示する際に、単位領域を示す格子線71を、ライブビュー画像に重ねて表示させてもよい。 Here, when displaying the live view image before determining the area of interest and the peripheral area on the display unit 50 (first display unit 51 or second display unit 53), the grid line 71 indicating the unit area is displayed in the live view. It may be displayed overlaid on the image.

図7(b)は、ライブビュー画像に基づく人体検出処理によって制御部70で決定された注目領域を例示する図である。図7(b)において、検出された人体を含む領域(枠72で囲んだ縦4×横5の計20の単位領域131で構成される)が注目領域にされる。また、注目領域以外の領域(枠72の外側の計28の単位領域131で構成される)が周辺領域にされる。 FIG. 7B is a diagram illustrating a region of interest determined by the control unit 70 by the human body detection process based on the live view image. In FIG. 7B, a region including the detected human body (composed of a total of 20 unit regions 131 of 4 vertical × 5 horizontal surrounded by a frame 72) is designated as a region of interest. Further, a region other than the region of interest (composed of a total of 28 unit regions 131 outside the frame 72) is set as the peripheral region.

なお、制御部70が注目領域を決定した際に、決定した注目領域を示す枠72を、表示部50(第1表示部51または第2表示部53)に表示中のライブビュー画像に重ねて表示させてもよい。 When the control unit 70 determines the region of interest, the frame 72 indicating the determined region of interest is superimposed on the live view image displayed on the display unit 50 (first display unit 51 or second display unit 53). It may be displayed.

本実施形態では、注目領域および周辺領域を決定した以降において、撮像素子100の注目領域に対応するブロックと周辺領域に対応するブロックとで異なる制御パラメータを適用する。そして、異なる制御パラメータを適用して得た複数の画像に基づいて、第1表示部51と第2表示部53とで異なる画像を表示させる。 In the present embodiment, after the attention region and the peripheral region are determined, different control parameters are applied to the block corresponding to the attention region and the block corresponding to the peripheral region of the image sensor 100. Then, the first display unit 51 and the second display unit 53 display different images based on the plurality of images obtained by applying different control parameters.

具体的には、注目領域に対応する画像と、周辺領域に対応する画像とを合成し、合成後の画像を第1表示部51にて第1ライブビュー画像として表示させる。また、注目領域に対応する画像のみを第2表示部53にて第2ライブビュー画像として表示させる。 Specifically, the image corresponding to the region of interest and the image corresponding to the peripheral region are combined, and the combined image is displayed as the first live view image on the first display unit 51. Further, only the image corresponding to the region of interest is displayed as the second live view image on the second display unit 53.

図8(a)は、周辺領域に対応して取得される画像90、図8(b)は、注目領域に対応して取得される画像80、および図8(c)は、合成される第1ライブビュー画像90Aを例示する図である。図8(a)において、周辺領域に対応する画像90は、フレームレートを例えば90fpsとして取得される。図8(b)において、注目領域に対応する画像80は、例えば周辺領域の2倍のフレームレート180fpsで取得される。 8 (a) is an image 90 acquired corresponding to the peripheral region, FIG. 8 (b) is an image 80 acquired corresponding to the region of interest, and FIG. 8 (c) is a composite th. It is a figure which illustrates 1 live view image 90A. In FIG. 8A, the image 90 corresponding to the peripheral region is acquired with a frame rate of, for example, 90 fps. In FIG. 8B, the image 80 corresponding to the region of interest is acquired, for example, at a frame rate of 180 fps, which is twice that of the peripheral region.

図8(a)および図8(b)によれば、周辺領域に対応する画像90を4フレーム取得する間に、注目領域に対応する画像80を8フレーム取得できる。このように、注目領域において周辺領域に比べて高いフレームレートで取得することにより、第2表示部53(図6)に表示する注目領域についての第2ライブビュー画像80Aの視認性を向上させることができる。 According to FIGS. 8A and 8B, 8 frames of the image 80 corresponding to the region of interest can be acquired while 4 frames of the image 90 corresponding to the peripheral region are acquired. In this way, by acquiring the attention region at a higher frame rate than the peripheral region, the visibility of the second live view image 80A for the attention region displayed on the second display unit 53 (FIG. 6) is improved. Can be done.

第1表示部51(図6)に表示する第1ライブビュー画像90Aについては、周辺領域に対応する画像90の中に注目領域に対応する画像80を合成する際に、周辺領域と取得開始タイミングが同じフレーム(図8(b)のうち太線で囲んだフレーム)画像をはめ込み合成する。このように、第1ライブビュー画像90Aの再生フレームレートを、取得時のフレームレートが低い周辺領域のフレームレートに合わせるようにしたので、第1ライブビュー画像90Aを観察するユーザが違和感を覚えることがない。図6において第1表示部51の画面に表示した一点鎖線の枠は、はめ込み合成した画像80の範囲をわかりやすくするために便宜上記載したもので、必ずしも第1表示部51の画面に表示させなくてもよい。ここで、第1表示部51に表示中の第1ライブビュー画像90Aに重ねてアイコンなどを表示させる場合は、注目領域に対応する画像80を避けて周辺領域に対応する位置へ重ね合成させるものとする。 Regarding the first live view image 90A displayed on the first display unit 51 (FIG. 6), when the image 80 corresponding to the region of interest is combined with the image 90 corresponding to the peripheral region, the peripheral region and the acquisition start timing are used. Is the same frame (the frame surrounded by the thick line in FIG. 8B), and the images are fitted and combined. In this way, the playback frame rate of the first live view image 90A is adjusted to match the frame rate of the peripheral region where the frame rate at the time of acquisition is low, so that the user observing the first live view image 90A feels uncomfortable. There is no. The frame of the alternate long and short dash line displayed on the screen of the first display unit 51 in FIG. 6 is described for convenience in order to make the range of the fitted and composited image 80 easy to understand, and is not necessarily displayed on the screen of the first display unit 51. You may. Here, when displaying an icon or the like overlaid on the first live view image 90A displayed on the first display unit 51, the image 80 corresponding to the region of interest is avoided and the image 80 is superimposed on the position corresponding to the peripheral region. And.

なお、図6の例では、注目領域および周辺領域を含む第1ライブビュー画像90Aを第1表示部51に表示させ、注目領域のみに対応する第2ライブビュー画像80Aを第2表示部53に表示させるようにしたが、第1表示部51と第2表示部53との間で表示内容を逆にしても構わない。例えば、第1タッチパネル52、または第2タッチパネル54が操作されたタイミングで表示内容を逆にする。また、注目領域に対応する第2ライブビュー画像80Aを表示する場合に、電子ズーム処理により拡大させて表示するようにしてもよい。図6において第2表示部53に表示されている第2ライブビュー画像80Aは、第1表示部51に表示されている画像80よりも、第2表示部53に表示される第2ライブビュー画像80Aが大きいサイズで表示されるように、電気的な拡大処理(いわゆる電子ズーム)により拡大された状態を例示する。この場合の電子ズーム処理は、画像処理部30によって行う。 In the example of FIG. 6, the first live view image 90A including the region of interest and the peripheral region is displayed on the first display unit 51, and the second live view image 80A corresponding only to the region of interest is displayed on the second display unit 53. Although the display is performed, the display contents may be reversed between the first display unit 51 and the second display unit 53. For example, the display content is reversed at the timing when the first touch panel 52 or the second touch panel 54 is operated. Further, when the second live view image 80A corresponding to the region of interest is displayed, it may be enlarged and displayed by electronic zoom processing. The second live view image 80A displayed on the second display unit 53 in FIG. 6 is a second live view image displayed on the second display unit 53 rather than the image 80 displayed on the first display unit 51. An example shows a state in which 80A is enlarged by an electric enlargement process (so-called electronic zoom) so that it is displayed in a large size. The electronic zoom process in this case is performed by the image processing unit 30.

<フローチャートの説明>
図9は、撮像装置1の制御部70が実行する撮影動作の流れを説明するフローチャートである。制御部70は、不図示のON-OFFスイッチがオン操作され、撮像装置1の各部に対して通電が行われている場合に、図9による処理を繰り返し起動させる。図9のステップS101において、制御部70は、撮像部20による撮像を開始させる。ステップS101で開始するライブビュー画像の取得は、撮像素子100の全領域で共通の制御パラメータを適用して行う。すなわち、撮像素子100の全領域において同じフレームレート(例えば90fps)で撮像する。
<Explanation of flowchart>
FIG. 9 is a flowchart illustrating a flow of a photographing operation executed by the control unit 70 of the imaging device 1. When the ON-OFF switch (not shown) is turned on and each part of the image pickup apparatus 1 is energized, the control unit 70 repeatedly activates the process according to FIG. In step S101 of FIG. 9, the control unit 70 starts imaging by the imaging unit 20. The acquisition of the live view image started in step S101 is performed by applying a control parameter common to all regions of the image sensor 100. That is, the entire region of the image sensor 100 is imaged at the same frame rate (for example, 90 fps).

制御部70は、撮像部20により取得されたライブビュー画像データを画像処理部30により画像処理させた後、第1表示部51に表示させる。なお、本実施形態では、この段階において第2表示部53の表示をオフさせている。 The control unit 70 causes the image processing unit 30 to process the live view image data acquired by the imaging unit 20, and then displays the live view image data on the first display unit 51. In the present embodiment, the display of the second display unit 53 is turned off at this stage.

ステップS102において、制御部70は、上述したようにライブビュー画像に基づいて注目領域を決定し、ステップS103へ進む。制御部70は、注目領域以外の領域を周辺領域とする。ステップS103において、制御部70は、ステップS102で決定した注目領域と周辺領域とに基づいて撮像部20に対する制御と、表示部50に対する表示制御とを行う。 In step S102, the control unit 70 determines the region of interest based on the live view image as described above, and proceeds to step S103. The control unit 70 sets a region other than the region of interest as a peripheral region. In step S103, the control unit 70 controls the imaging unit 20 and the display unit 50 based on the attention region and the peripheral region determined in step S102.

制御部70は駆動部21へ指示を送り、撮像素子100の注目領域に対応するブロックのフレームレートを90fpsから2倍の180fpsへ変更させる。なお、90fpsから3倍の270fpsへ変更させてもよい。制御部70は、注目領域に対応するブロックのフレームレートを上げたのに応じて、第2表示部53の表示をオンさせ、注目領域のみに対応する第2ライブビュー画像80Aを第2表示部53に表示させる(図6)。一方、第1表示部51には、周辺領域に対応する画像90の中に注目領域に対応する画像80をはめ込み合成した第1ライブビュー画像90Aを表示させる(図6)。 The control unit 70 sends an instruction to the drive unit 21 to change the frame rate of the block corresponding to the region of interest of the image sensor 100 from 90 fps to 180 fps, which is doubled. In addition, you may change from 90 fps to 270 fps which is tripled. The control unit 70 turns on the display of the second display unit 53 in response to increasing the frame rate of the block corresponding to the region of interest, and displays the second live view image 80A corresponding to the region of interest only in the second display unit. It is displayed on 53 (Fig. 6). On the other hand, the first display unit 51 displays the first live view image 90A in which the image 80 corresponding to the region of interest is fitted and synthesized in the image 90 corresponding to the peripheral region (FIG. 6).

この際、注目領域の視認性を向上するために、画像処理部30に上述した電子ズーム処理を行わせて、注目領域を拡大した第2ライブビュー画像80Aを第2表示部53に表示させる。この場合の拡大率(電子ズーム倍率)は、拡大後の注目領域の表示が第2表示部53の表示域からはみ出ないように設定すればよい。これにより、ユーザは、構図全体を第1表示部51の第1ライブビュー画像90Aで視認しながら、注目領域のフレームレートの高い第2ライブビュー画像80Aを第2表示部53から視認できる。 At this time, in order to improve the visibility of the region of interest, the image processing unit 30 is subjected to the above-mentioned electronic zoom processing, and the second live view image 80A in which the region of interest is enlarged is displayed on the second display unit 53. In this case, the enlargement ratio (electronic zoom magnification) may be set so that the display of the area of interest after enlargement does not extend beyond the display area of the second display unit 53. As a result, the user can visually recognize the second live view image 80A having a high frame rate in the region of interest from the second display unit 53 while visually recognizing the entire composition with the first live view image 90A of the first display unit 51.

ステップS104において、制御部70は、撮像装置1に対する操作の有無を判定する。制御部70は、操作が行われた場合にステップS104を肯定判定してステップS105へ進み、操作が行われない場合には、ステップS104を否定判定して当該判定処理を繰り返す。 In step S104, the control unit 70 determines whether or not there is an operation on the image pickup apparatus 1. When the operation is performed, the control unit 70 positively determines step S104 and proceeds to step S105, and when the operation is not performed, the control unit 70 negatively determines step S104 and repeats the determination process.

ステップS104において有無を判定する操作は、第1タッチパネル52や第2タッチパネル54に対して行われる操作や、不図示の操作部材に対して行われる操作を含む。本実施形態においては、第2表示部53に注目領域に対応する第2ライブビュー画像80Aを表示させているので、第2タッチパネル54に対する操作の有無を判断するものとする。 The operation of determining the presence or absence in step S104 includes an operation performed on the first touch panel 52 and the second touch panel 54 and an operation performed on an operation member (not shown). In the present embodiment, since the second live view image 80A corresponding to the region of interest is displayed on the second display unit 53, it is determined whether or not there is an operation on the second touch panel 54.

制御部70は、例えば、図6に例示するように第2表示部53に前ピンアイコン56、後ピンアイコン57、フレームレートを上げるアイコン58、フレームレートを下げるアイコン59を表示させて、第2タッチパネル54でタッチ操作を受け付ける。ステップS105において、制御部70は、第2表示部53に表示中のアイコンであって、第2タッチパネル54によるタッチ位置に表示中のアイコンに対応付けられている処理を実行して、ステップS106へ進む。例えば、表示中の前ピンアイコン56がタッチ操作された場合の制御部70は、注目領域の主要被写体がいわゆる前ピンとなるように、撮像光学系10のフォーカスレンズを前ピン側に駆動させる。 For example, the control unit 70 causes the second display unit 53 to display the front pin icon 56, the rear pin icon 57, the icon 58 for increasing the frame rate, and the icon 59 for decreasing the frame rate on the second display unit 53 as illustrated in FIG. The touch panel 54 accepts touch operations. In step S105, the control unit 70 executes a process associated with the icon displayed on the second display unit 53 at the touch position of the second touch panel 54 and proceeds to step S106. move on. For example, when the front pin icon 56 being displayed is touch-operated, the control unit 70 drives the focus lens of the imaging optical system 10 toward the front pin so that the main subject in the region of interest is the so-called front pin.

ステップS106において、制御部70は、レリーズ操作されたか否かを判定する。制御部70は、不図示のレリーズボタンが押下操作(全押し操作)された場合に、ステップS106を肯定判定してステップS107へ進み、押下操作が行われない場合には、ステップS106を否定判定してステップS104へ戻る。ステップS104へ戻る場合は、上述した処理を繰り返す。なお、第2表示部53にレリーズアイコンを表示させておき、表示中のレリーズアイコンがタッチ操作された場合にステップS106を肯定判定するようにしてもよい。 In step S106, the control unit 70 determines whether or not the release operation has been performed. The control unit 70 positively determines step S106 and proceeds to step S107 when the release button (not shown) is pressed (fully pressed), and negatively determines step S106 if the pressing operation is not performed. Then, the process returns to step S104. When returning to step S104, the above-described processing is repeated. The release icon may be displayed on the second display unit 53, and step S106 may be positively determined when the released release icon being displayed is touch-operated.

ステップS107において、制御部70は撮影処理を実行し、取得された画像のデータを記録部60によってメモリカードなどに記憶させて図9による処理を終了させる。撮影処理では、撮像素子100の全領域で共通の制御パラメータを適用して、1コマの静止画像を取得(本撮像)、記録するとともに、静止画像を取得した後も複数フレームの画像を取得する。そして、レリーズ操作の前後所定時間の間に取得した複数フレームの画像に基づいて、スロー再生動画データを生成、記録する。スロー再生動画データは、撮像素子100で取得した際のフレームレートより遅いフレームレート(例えば60fps)で再生する動画像のデータをいう。 In step S107, the control unit 70 executes a shooting process, stores the acquired image data in a memory card or the like by the recording unit 60, and ends the process according to FIG. In the shooting process, a control parameter common to all areas of the image sensor 100 is applied to acquire and record a still image of one frame (main imaging), and an image of a plurality of frames is acquired even after the still image is acquired. .. Then, slow playback moving image data is generated and recorded based on the images of a plurality of frames acquired during the predetermined time before and after the release operation. The slow playback moving image data refers to moving image data to be reproduced at a frame rate (for example, 60 fps) slower than the frame rate acquired by the image sensor 100.

制御部70は、以下のようにスロー再生動画データを生成する。すなわち、レリーズ操作時刻(t1とする)より第1所定時間前(例えば0.6秒前)から時刻t1までに、上述した第1ライブビュー画像90Aおよび第2ライブビュー画像80Aの表示のためにワークメモリ40に一時的に記憶された複数のフレーム画像(フレームレートは周辺領域に設定されていたフレームレートとする。例えば90fpsで取得された場合の0.6秒分は54フレームである)、および時刻t1から時刻t1より第2所定時間後(例えば0.4秒後)までにワークメモリ40に記憶された複数のフレーム画像(レリーズ操作後のフレームレートは注目領域に設定されていたフレームレートとする。例えば180fpsで取得した場合の0.4秒分は72フレームである)に基づいて、スロー再生動画データを生成する。これにより、時刻t1を挟む1秒間(時刻t1の0.6秒前から時刻t1の0.4秒後)にワークメモリ40に記憶された複数のフレーム画像(計126枚)に基づいて、再生時間が約2秒間のスロー再生動画データを生成する。 The control unit 70 generates slow playback moving image data as follows. That is, for displaying the first live view image 90A and the second live view image 80A described above from the first predetermined time (for example, 0.6 seconds before) to the time t1 from the release operation time (referred to as t1). A plurality of frame images temporarily stored in the work memory 40 (the frame rate is the frame rate set in the peripheral area. For example, 0.6 seconds when acquired at 90 fps is 54 frames). And a plurality of frame images stored in the work memory 40 from the time t1 to the second predetermined time after the time t1 (for example, 0.4 seconds later) (the frame rate after the release operation is the frame rate set in the region of interest). For example, 0.4 seconds when acquired at 180 fps is 72 frames), and slow playback moving image data is generated. As a result, playback is performed based on a plurality of frame images (126 in total) stored in the work memory 40 for 1 second (0.6 seconds before time t1 to 0.4 seconds after time t1) sandwiching time t1. Generates slow playback video data with a time of about 2 seconds.

このようにスロー再生動画像を生成すると、レリーズ操作前は遅いフレームレートで取得したフレーム画像に基づくスロー再生動画データが得られ、レリーズ操作後は速いフレームレートで取得したフレーム画像に基づくスロー再生動画データが得られる。なお、スロー画像動画データは、画像処理部30によりMPEGデータまたはJPEGデータとして生成される。 When the slow playback moving image is generated in this way, slow playback video data based on the frame image acquired at a slow frame rate is obtained before the release operation, and slow playback video based on the frame image acquired at a fast frame rate after the release operation. Data is obtained. The slow image / moving image data is generated as MPEG data or JPEG data by the image processing unit 30.

以上説明した実施形態によれば、次の作用効果が得られる。
(1)撮像装置1は、周辺領域を第1フレームレート90fpsで撮像し、注目領域を第1フレームレートよりも速い第2フレームレート180fpsで撮像可能な撮像部20と、周辺領域と注目領域とで撮像された画像を第1表示部51に表示させる制御部70と、注目領域で撮像された画像を第2表示部53に表示させる制御部70と、を備えたので、画像の視認性を向上できる。
According to the embodiment described above, the following effects can be obtained.
(1) The imaging device 1 includes an imaging unit 20 capable of imaging a peripheral region at a first frame rate of 90 fps and an image of a region of interest at a second frame rate of 180 fps, which is faster than the first frame rate, and a peripheral region and a region of interest. Since the control unit 70 for displaying the image captured in the first display unit 51 and the control unit 70 for displaying the image captured in the region of interest on the second display unit 53 are provided, the visibility of the image can be improved. Can be improved.

(2)上記(1)の撮像装置1において、制御部70はさらに、第2表示部53に表示させている画像の近傍に画像に関する操作に関わるアイコン表示をさせたので、視認性を高めた画像に対する操作性も向上できる。 (2) In the image pickup apparatus 1 of the above (1), the control unit 70 further displays an icon related to the operation related to the image in the vicinity of the image displayed on the second display unit 53, so that the visibility is improved. The operability for images can also be improved.

(3)上記(1)、(2)の撮像装置1において、制御部70はさらに、第1表示部51に表示させている注目領域で撮像された画像に対して付加表示を行うようにしたので、例えば注目領域の範囲をわかりやすく表示できる。 (3) In the image pickup apparatus 1 of the above (1) and (2), the control unit 70 further performs additional display on the image captured in the region of interest displayed on the first display unit 51. Therefore, for example, the range of the area of interest can be displayed in an easy-to-understand manner.

(4)上記(1)〜(3)の撮像装置1において、制御部70は、注目領域で撮像された画像に拡大処理を施して第2表示部53に表示させるようにしたので、注目領域の視認性をさらに高めることができる。 (4) In the image pickup apparatus 1 of the above (1) to (3), the control unit 70 enlarges the image captured in the area of interest and displays it on the second display unit 53. The visibility of the image can be further improved.

(5)上記(1)〜(4)の撮像装置1において、制御部70は、周辺領域で撮像された画像と、注目領域で撮像された画像とを合成する合成部を含み、この合成部による合成画像(第1ライブビュー画像90A)を第1表示部51に表示させる。これにより、撮像された画像を1つのライブビュー画像として表示できる。 (5) In the imaging devices 1 of (1) to (4) above, the control unit 70 includes a compositing unit that synthesizes an image captured in the peripheral region and an image captured in the region of interest, and the compositing unit includes the compositing unit. (1st live view image 90A) is displayed on the 1st display unit 51. As a result, the captured image can be displayed as one live view image.

(6)上記(5)の撮像装置1において、合成部(制御部70)は、注目領域において第2フレームレート180fpsで撮像された時系列の画像80の中から、周辺領域における第1フレームレート90fpsに対応する画像を選択し、当該選択した画像を周辺領域で撮像された画像90と逐次合成するようにしたので、合成された第1ライブビュー画像90Aを観察するユーザに与える違和感を抑えることができる。 (6) In the image pickup apparatus 1 of the above (5), the synthesis unit (control unit 70) has a first frame rate in the peripheral region from the time-series images 80 imaged at the second frame rate of 180 fps in the region of interest. Since an image corresponding to 90 fps is selected and the selected image is sequentially combined with the image 90 captured in the peripheral region, it is possible to suppress the discomfort given to the user observing the combined first live view image 90A. Can be done.

(7)上記(1)〜(5)の撮像装置1において、周辺領域として撮像された画像の一部を注目領域として決定する制御部70をさらに備えるようにしたので、例えば、周辺領域として撮像された画像で人物の顔を含む領域や、周辺領域で撮像された画像を表示する画面においてタッチ操作された領域を、注目領域として決定し得る。 (7) Since the image pickup apparatus 1 of the above (1) to (5) is further provided with a control unit 70 that determines a part of the image captured as the peripheral region as the region of interest, for example, the image is captured as the peripheral region. The area including the face of a person in the imaged image and the area touch-operated on the screen displaying the image captured in the peripheral area can be determined as the area of interest.

(8)上記(7)の撮像装置1において、制御部70は、周辺領域において撮像された画像に対する顔検出もしくは人体検出に基づいて注目領域を決定するので、タッチ操作がなくても自動で注目領域を決めることができる。 (8) In the imaging device 1 of the above (7), the control unit 70 determines the region of interest based on face detection or human body detection for the image captured in the peripheral region, so that the region of interest is automatically focused even without a touch operation. You can decide the area.

(変形例1)
上述した実施形態では、主要被写体が1つの場合を例に説明した。変形例1では、主要被写体の数が複数である場合を説明する。図10は、複数の主要被写体が存在する場面を例示する図である。図10(a)に例示する場面を撮影する場合の制御部70は、例えば滑り台の後方にいる男の子を第1主要被写体とし、滑り台で滑っている女の子を第2主要被写体とする。この場合、第1主要被写体を含む領域を第1注目領域とし、第2主要被写体を含む領域を第2注目領域とする。
(Modification example 1)
In the above-described embodiment, the case where the main subject is one has been described as an example. In the first modification, a case where the number of main subjects is a plurality is described. FIG. 10 is a diagram illustrating a scene in which a plurality of main subjects exist. In the case of photographing the scene illustrated in FIG. 10A, for example, the control unit 70 sets a boy behind the slide as the first main subject and a girl sliding on the slide as the second main subject. In this case, the area including the first main subject is set as the first attention area, and the area including the second main subject is set as the second attention area.

図10(b)に例示する場面を撮影する場合の制御部70は、例えばブランコをこいでいる女の子を第1主要被写体とし、ブランコをこいでいる男の子を第2主要被写体とする。この場合も、第1主要被写体を含む領域を第1注目領域とし、第2主要被写体を含む領域を第2注目領域とする。 In the case of shooting the scene illustrated in FIG. 10B, for example, the control unit 70 sets a girl on a swing as the first main subject and a boy on the swing as the second main subject. Also in this case, the area including the first main subject is set as the first attention area, and the area including the second main subject is set as the second attention area.

変形例1において、制御部70は、画面内で動く速さが異なる第1主要被写体と第2主要被写体とが存在する場合に、ライブビュー画像に基づいて、第1主要被写体を包含する第1注目領域を決定し、第2主要被写体を包含する第2注目領域を決定する。この場合の周辺領域は、第1注目領域および第2注目領域以外の他の領域とする。 In the first modification, the control unit 70 includes the first main subject based on the live view image when the first main subject and the second main subject having different moving speeds in the screen exist. The area of interest is determined, and the second area of interest that includes the second main subject is determined. The peripheral region in this case is a region other than the first attention region and the second attention region.

制御部70は、駆動部21へ指示を送り、撮像素子100の第1注目領域に対応するブロックのフレームレートを、例えば90fpsから150fpsに変更し、第2注目領域に対応するブロックのフレームレートを、例えば90fpsから240fpsに変更する。制御部70はさらに、図11に例示するように、第2表示部53に対して2つの表示領域に分けて分割表示させ、例えば画面右側に第1注目領域に対応するライブビュー画像81Aを表示させ、画面左側に第2注目領域に対応するライブビュー画像82Aを表示させる。 The control unit 70 sends an instruction to the drive unit 21, changes the frame rate of the block corresponding to the first attention region of the image sensor 100 from, for example, 90 fps to 150 fps, and changes the frame rate of the block corresponding to the second attention region. For example, change from 90 fps to 240 fps. As illustrated in FIG. 11, the control unit 70 further divides the second display unit 53 into two display areas and displays the live view image 81A corresponding to the first attention area on the right side of the screen, for example. The live view image 82A corresponding to the second attention region is displayed on the left side of the screen.

変形例1においては、このように複数の注目領域に対応する複数のライブビュー画像81A、81Bを並べたものを第2ライブビュー画像として表示させる。なお、図11において第2表示部53の画面中央に引いた一点鎖線は、複数のライブビュー画像81A、81Bの境界をわかりやすくするために便宜上引いたもので、必ずしも第2表示部53の画面に表示させなくてもよい。 In the first modification, a plurality of live view images 81A and 81B corresponding to the plurality of areas of interest are arranged and displayed as a second live view image. The alternate long and short dash line drawn in the center of the screen of the second display unit 53 in FIG. 11 is drawn for convenience in order to make the boundaries of the plurality of live view images 81A and 81B easy to understand, and is not necessarily the screen of the second display unit 53. It is not necessary to display it in.

一方、第1表示部51には、周辺領域に対応する画像の中に第1注目領域に対応する画像81および第2注目領域に対応する画像82をそれぞれはめ込み合成した第1ライブビュー画像90Aを表示させる。なお、図11において第1表示部51の画面に表示した一点鎖線の枠は、複数の画像81、82の範囲をわかりやすくするために便宜上記載したもので、必ずしも第1表示部51の画面に表示させなくてもよい。 On the other hand, in the first display unit 51, a first live view image 90A obtained by fitting and synthesizing an image 81 corresponding to the first attention region and an image 82 corresponding to the second attention region in the image corresponding to the peripheral region is provided. Display it. The frame of the alternate long and short dash line displayed on the screen of the first display unit 51 in FIG. 11 is described for convenience in order to make the ranges of the plurality of images 81 and 82 easy to understand, and is not necessarily on the screen of the first display unit 51. It does not have to be displayed.

また、図11において、第2表示部53の第1注目領域に対応するライブビュー画像81Aの近傍に、前ピンアイコン56A、後ピンアイコン57A、第1注目領域に対応するブロックのフレームレートを上げるアイコン58A、第1注目領域に対応するブロックのフレームレートを下げるアイコン59Aを表示させて、第2タッチパネル54でタッチ操作を受け付ける。ユーザは、ライブビュー画像81Aに着目してピント操作やフレームレートの調整操作を行える。 Further, in FIG. 11, the frame rate of the front pin icon 56A, the rear pin icon 57A, and the block corresponding to the first attention area is increased in the vicinity of the live view image 81A corresponding to the first attention area of the second display unit 53. The icon 58A and the icon 59A that lowers the frame rate of the block corresponding to the first attention area are displayed, and the touch operation is accepted by the second touch panel 54. The user can focus on the live view image 81A and perform a focus operation and a frame rate adjustment operation.

さらにまた、図11において、第2表示部53の第2注目領域に対応するライブビュー画像82Aの近傍に、前ピンアイコン56B、後ピンアイコン57B、第2注目領域に対応するブロックのフレームレートを上げるアイコン58B、第2注目領域に対応するブロックのフレームレートを下げるアイコン59Bを表示させて、第2タッチパネル54でタッチ操作を受け付ける。ユーザは、ライブビュー画像82Aに着目してピント操作やフレームレートの調整操作を行える。 Furthermore, in FIG. 11, the frame rates of the front pin icon 56B, the rear pin icon 57B, and the block corresponding to the second attention area are set in the vicinity of the live view image 82A corresponding to the second attention area of the second display unit 53. The icon 58B for raising and the icon 59B for lowering the frame rate of the block corresponding to the second attention area are displayed, and the touch operation is accepted by the second touch panel 54. The user can focus on the live view image 82A and perform a focus operation and a frame rate adjustment operation.

(変形例2)
上述した実施形態および変形例1では、撮像装置1として光学ファインダーを有するタイプのカメラを例示したが、光学ファインダーを備えてないタイプのカメラによって撮像装置1を構成してもよい。
(Modification 2)
In the above-described embodiment and the first modification, a camera having an optical viewfinder is illustrated as the image pickup device 1, but the image pickup device 1 may be configured by a camera having no optical viewfinder.

(変形例3)
上述した実施形態および変形例1においては、第2表示部53がヒンジを介して回動可能に設けられる例を説明したが、第2表示部53を、撮像装置1の筐体に対して着脱自在に構成してもよい。この場合、撮像装置1の筐体側と第2表示部53の筐体側とにおいてそれぞれ無線通信部を備え、これら無線通信部を介した無線通信によって第2表示部53で表示すべき情報を撮像装置1側から第2表示部53側へ送信する。無線通信部は、筐体内部に組み込んでもよいし、筐体外部に装着してもよい。無線通信としては、例えば赤外光通信、Bluetooth(登録商標)、または無線LAN通信などを利用する。
(Modification 3)
In the above-described embodiment and the first modification, the example in which the second display unit 53 is rotatably provided via the hinge has been described, but the second display unit 53 is attached to and detached from the housing of the image pickup device 1. It may be freely configured. In this case, the housing side of the imaging device 1 and the housing side of the second display unit 53 are each provided with wireless communication units, and the information to be displayed on the second display unit 53 by wireless communication via these wireless communication units is captured by the imaging device. Transmission is performed from the 1st side to the 2nd display unit 53 side. The wireless communication unit may be incorporated inside the housing or may be mounted outside the housing. As wireless communication, for example, infrared optical communication, Bluetooth (registered trademark), wireless LAN communication, or the like is used.

(変形例4)
上述した実施形態および変形例1においては、第2表示部53を専用の表示部として構成する例を説明した。この代わりに、高機能携帯電話機の液晶表示部を第2表示部として動作させたり、タブレット端末の液晶表示部を第2表示部として動作させたりしてもよい。この場合、撮像装置1の筐体側に無線LAN通信部を備え、撮像装置1と高機能携帯電話機(またはタブレット端末)との間の無線LAN通信によって、高機能携帯電話機(またはタブレット端末)の液晶表示部で表示すべき情報を撮像装置1側から高機能携帯電話機(またはタブレット端末)へ送信する。無線LAN通信部は、撮像装置1の筐体内部に組み込んでもよいし、筐体外部に装着してもよい。
(Modification example 4)
In the above-described embodiment and the first modification, an example in which the second display unit 53 is configured as a dedicated display unit has been described. Instead, the liquid crystal display unit of the high-performance mobile phone may be operated as the second display unit, or the liquid crystal display unit of the tablet terminal may be operated as the second display unit. In this case, a wireless LAN communication unit is provided on the housing side of the image pickup device 1, and the liquid crystal of the high-performance mobile phone (or tablet terminal) is provided by wireless LAN communication between the image pickup device 1 and the high-performance mobile phone (or tablet terminal). Information to be displayed on the display unit is transmitted from the image pickup device 1 side to the high-performance mobile phone (or tablet terminal). The wireless LAN communication unit may be incorporated inside the housing of the image pickup apparatus 1 or may be mounted outside the housing.

(変形例5)
上述した実施形態および変形例1では、撮像装置1としてカメラを例示したが、高機能携帯電話機(またはタブレット端末)によって撮像装置1を構成してもよい。この場合、高機能携帯電話機(またはタブレット端末)に搭載されるカメラユニットを、上記積層型撮像素子100を用いて構成する。
(Modification 5)
In the above-described embodiment and the first modification, the camera is illustrated as the image pickup device 1, but the image pickup device 1 may be configured by a high-performance mobile phone (or tablet terminal). In this case, the camera unit mounted on the high-performance mobile phone (or tablet terminal) is configured by using the stacked image sensor 100.

変形例5において、撮像装置1を構成する第1高機能携帯電話機(または第1タブレット端末)の他に、第2表示部として動作させる第2高機能携帯電話機(または第2タブレット端末)を用いる。この場合、第1高機能携帯電話機(または第1タブレット端末)と第2高機能携帯電話機(または第2タブレット端末)との間の無線LAN通信によって、第2高機能携帯電話機(または第2タブレット端末)の液晶表示部で表示すべき情報を第1高機能携帯電話機(または第1タブレット端末)から第2高機能携帯電話機(または第2タブレット端末)へ送信する。 In the fifth modification, in addition to the first high-performance mobile phone (or the first tablet terminal) that constitutes the image pickup apparatus 1, a second high-performance mobile phone (or the second tablet terminal) that operates as the second display unit is used. .. In this case, the second high-performance mobile phone (or the second tablet) is provided by wireless LAN communication between the first high-performance mobile phone (or the first tablet terminal) and the second high-performance mobile phone (or the second tablet terminal). Information to be displayed on the liquid crystal display unit of the terminal) is transmitted from the first high-performance mobile phone (or the first tablet terminal) to the second high-performance mobile phone (or the second tablet terminal).

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。上記実施形態および各変形例の構成は、適宜組合せて構わない。 The above description is merely an example, and is not limited to the configuration of the above embodiment. The above-described embodiment and the configurations of the respective modifications may be combined as appropriate.

1…撮像装置
10…撮像光学系
20…撮像部
30…画像処理部
40…ワークメモリ
50…表示部
51…第1表示部
52…第1タッチパネル
53…第2表示部
54…第2タッチパネル
60…記録部
70…制御部
80A…第2ライブビュー画像
90A…第1ライブビュー画像
100…撮像素子
109…バンプ
111…信号処理チップ
112…メモリチップ
113…撮像チップ
131…単位領域
1 ... Image sensor 10 ... Imaging optical system 20 ... Imaging unit 30 ... Image processing unit 40 ... Work memory 50 ... Display unit 51 ... First display unit 52 ... First touch panel 53 ... Second display unit 54 ... Second touch panel 60 ... Recording unit 70 ... Control unit 80A ... Second live view image 90A ... First live view image 100 ... Image sensor 109 ... Bump 111 ... Signal processing chip 112 ... Memory chip 113 ... Imaging chip 131 ... Unit area

Claims (19)

行方向と列方向とにおいてそれぞれ配置される複数の画素と、前記複数の画素のうち第1画素に接続され、前記第1画素を制御するための第1制御信号が出力される第1制御線と、前記複数の画素のうち、前記第1画素から行方向側に配置される第2画素に接続され、前記第2画素を制御するための第2制御信号が出力される第2制御線と、を含む撮像素子と、
前記第1画素からの第1信号に基づいて生成される第1画像と、前記第2画素からの第2信号に基づいて生成される第2画像と、を表示部に表示させる制御部と、
を備える電子機器。
A first control line that is connected to a plurality of pixels arranged in the row direction and the column direction, and the first pixel of the plurality of pixels, and outputs a first control signal for controlling the first pixel. A second control line that is connected to a second pixel arranged on the row direction side from the first pixel among the plurality of pixels and outputs a second control signal for controlling the second pixel. With an image sensor including,
A control unit that displays a first image generated based on the first signal from the first pixel and a second image generated based on the second signal from the second pixel on the display unit.
Electronic equipment equipped with.
請求項1に記載の電子機器において、
前記第1画素は、前記第1制御線に接続され、前記第1信号を読み出すための第1読出回路を有し、
前記第2画素は、前記第2制御線に接続され、前記第2信号を読み出すための第2読出回路を有する電子機器。
In the electronic device according to claim 1,
The first pixel is connected to the first control line and has a first read circuit for reading the first signal.
The second pixel is an electronic device connected to the second control line and having a second read circuit for reading the second signal.
請求項2に記載の電子機器において、
前記第1読出回路は、前記第1制御線に接続され、光電変換された電荷を転送する第1転送部を有し、
前記第2読出回路は、前記第2制御線に接続され、光電変換された電荷を転送する第2転送部を有する電子機器。
In the electronic device according to claim 2.
The first read circuit has a first transfer unit that is connected to the first control line and transfers charge charged by photoelectric conversion.
The second read circuit is an electronic device connected to the second control line and having a second transfer unit that transfers charge charged by photoelectric conversion.
請求項3に記載の電子機器において、
前記撮像素子は、前記第1画素に接続され、前記第1画素を制御するための第3制御信号が出力される第3制御線と、前記第2画素に接続され、前記第2画素を制御するための第4制御信号が出力される第4制御線と、を有し、
前記第1読出回路は、前記第3制御線に接続され、光電変換された電荷が転送される第1フローティングディフュージョンの電位をリセットする第1リセット部を有し、
前記第2読出回路は、前記第4制御線に接続され、光電変換された電荷が転送される第2フローティングディフュージョンの電位をリセットする第2リセット部を有する電子機器。
In the electronic device according to claim 3,
The image sensor is connected to the first pixel and is connected to a third control line for outputting a third control signal for controlling the first pixel and the second pixel to control the second pixel. It has a fourth control line from which a fourth control signal is output, and
The first read circuit has a first reset unit which is connected to the third control line and resets the potential of the first floating diffusion to which the photoelectrically converted charge is transferred.
The second read circuit is an electronic device connected to the fourth control line and having a second reset unit that resets the potential of the second floating diffusion to which the photoelectrically converted charges are transferred.
請求項2に記載の電子機器において、
前記第1読出回路は、前記第1制御線に接続され、光電変換された電荷が転送される第1フローティングディフュージョンの電位をリセットする第1リセット部を有し、
前記第2読出回路は、前記第2制御線に接続され、光電変換された電荷が転送される第2フローティングディフュージョンの電位をリセットする第2リセット部を有する電子機器。
In the electronic device according to claim 2.
The first read circuit has a first reset unit which is connected to the first control line and resets the potential of the first floating diffusion to which the photoelectrically converted charge is transferred.
The second read circuit is an electronic device connected to the second control line and having a second reset unit that resets the potential of the second floating diffusion to which the photoelectrically converted charges are transferred.
請求項1から請求項5のいずれか一項に記載の電子機器において、
前記制御部は、前記第1画像を前記表示部の第1表示モニタに表示させ、前記第2画像を前記表示部の第2表示モニタに表示させる電子機器。
In the electronic device according to any one of claims 1 to 5.
The control unit is an electronic device that displays the first image on the first display monitor of the display unit and displays the second image on the second display monitor of the display unit.
請求項1から請求項5のいずれか一項に記載の電子機器において、
前記撮像素子は、前記行方向において並んで配置される複数の前記第1画素と、前記行方向において並んで配置される複数の前記第2画素とを有する電子機器。
In the electronic device according to any one of claims 1 to 5.
The image pickup device is an electronic device having a plurality of the first pixels arranged side by side in the row direction and a plurality of the second pixels arranged side by side in the row direction.
請求項1から請求項5のいずれか一項に記載の電子機器において、
前記撮像素子は、前記列方向において並んで配置される複数の前記第1画素と、前記列方向において並んで配置される複数の前記第2画素とを有する電子機器。
In the electronic device according to any one of claims 1 to 5.
The image pickup device is an electronic device having a plurality of the first pixels arranged side by side in the row direction and a plurality of the second pixels arranged side by side in the row direction.
請求項1から請求項5のいずれか一項に記載の電子機器において、
前記撮像素子は、前記行方向と前記列方向とにおいて並んで配置される複数の前記第1画素と、前記行方向と前記列方向とにおいて並んで配置される複数の前記第2画素とを有する電子機器。
In the electronic device according to any one of claims 1 to 5.
The image pickup device has a plurality of the first pixels arranged side by side in the row direction and the column direction, and a plurality of the second pixels arranged side by side in the row direction and the column direction. Electronics.
請求項1から請求項9のいずれか一項に記載の電子機器において、
前記制御部は、前記第1画素から前記第1信号を読み出すフレームレートと、前記第2画素から前記第2信号を読み出すフレームレートと、が異なるフレームレートになるように前記撮像素子を制御する電子機器。
In the electronic device according to any one of claims 1 to 9.
The control unit controls the image sensor so that the frame rate for reading the first signal from the first pixel and the frame rate for reading the second signal from the second pixel are different frame rates. machine.
請求項1から請求項10のいずれか一項に記載の電子機器において、
前記第1画素は、光を電荷に変換する第1光電変換部を有し、
前記第2画素は、光を電荷に変換する第2光電変換部を有し、
前記制御部は、前記第1光電変換部で変換された電荷を蓄積する蓄積時間と、前記第2光電変換部で変換された電荷を蓄積する蓄積時間と、が異なる蓄積時間となるように前記撮像素子を制御する電子機器。
In the electronic device according to any one of claims 1 to 10.
The first pixel has a first photoelectric conversion unit that converts light into electric charges.
The second pixel has a second photoelectric conversion unit that converts light into electric charges.
In the control unit, the storage time for accumulating the electric charge converted by the first photoelectric conversion unit and the accumulation time for accumulating the electric charge converted by the second photoelectric conversion unit are different. An electronic device that controls an image sensor.
請求項10または請求項11に記載の電子機器において、
前記制御部は、前記第1制御線に第1制御信号を出力するタイミングと、前記第2制御線に前記第2制御信号を出力するタイミングと、を制御する電子機器。
In the electronic device according to claim 10 or 11.
The control unit is an electronic device that controls a timing of outputting a first control signal to the first control line and a timing of outputting the second control signal to the second control line.
請求項1から請求項12のいずれか一項に記載の電子機器において、
前記撮像素子は、前記第1信号をデジタル信号に変換するための第1変換回路と、前記第2信号をデジタル信号に変換するための第2変換回路と、を有し、
前記制御部は、前記第1変換回路を用いてデジタル信号に変換された前記第1信号に基づいて生成される第1画像と、前記第2変換回路を用いてデジタル信号に変換された前記第2信号に基づいて生成される第2画像と、を前記表示部に表示させる電子機器。
In the electronic device according to any one of claims 1 to 12.
The image pickup device has a first conversion circuit for converting the first signal into a digital signal and a second conversion circuit for converting the second signal into a digital signal.
The control unit includes a first image generated based on the first signal converted into a digital signal by using the first conversion circuit, and the first image converted into a digital signal by using the second conversion circuit. An electronic device that displays a second image generated based on two signals on the display unit.
請求項13に記載の電子機器において、
前記撮像素子は、前記第1画素と前記第2画素とが配置される第1半導体チップと、前記第1変換回路と前記第2変換回路とが配置される第2半導体チップと、を有する電子機器。
In the electronic device according to claim 13,
The image sensor has an electron having a first semiconductor chip in which the first pixel and the second pixel are arranged, and a second semiconductor chip in which the first conversion circuit and the second conversion circuit are arranged. machine.
請求項14に記載の電子機器において、
前記第1半導体チップは、前記第2半導体チップにより積層される電子機器。
In the electronic device according to claim 14,
The first semiconductor chip is an electronic device laminated by the second semiconductor chip.
請求項13に記載の電子機器において、
前記撮像素子は、前記第1変換回路を用いてデジタル信号に変換された前記第1信号を記憶する第1記憶回路と、前記第2変換回路を用いてデジタル信号に変換された前記第2信号を記憶する第2記憶回路と、を有し、
前記制御部は、前記第1記憶回路に記憶された前記第1信号に基づいて生成される第1画像と、前記第2記憶回路に記憶された前記第2信号に基づいて生成される第2画像と、を前記表示部に表示させる電子機器。
In the electronic device according to claim 13,
The imaging element includes a first storage circuit that stores the first signal converted into a digital signal using the first conversion circuit, and the second signal converted into a digital signal using the second conversion circuit. Has a second storage circuit that stores
The control unit has a first image generated based on the first signal stored in the first storage circuit and a second image generated based on the second signal stored in the second storage circuit. An electronic device that displays an image on the display unit.
請求項16に記載の電子機器において、
前記撮像素子は、前記第1画素と前記第2画素とが配置される第1半導体チップと、前記第1変換回路と前記第2変換回路とが配置される第2半導体チップと、前記第1記憶回路と前記第2記憶回路とが配置される第3半導体チップと、を有する電子機器。
In the electronic device according to claim 16.
The image pickup element includes a first semiconductor chip in which the first pixel and the second pixel are arranged, a second semiconductor chip in which the first conversion circuit and the second conversion circuit are arranged, and the first. An electronic device having a storage circuit and a third semiconductor chip in which the second storage circuit is arranged.
請求項17に記載の電子機器において、
前記第1半導体チップは、前記第3半導体チップにより積層される電子機器。
In the electronic device according to claim 17,
The first semiconductor chip is an electronic device laminated by the third semiconductor chip.
請求項18に記載の電子機器において、
前記第1半導体チップは、前記第2半導体チップにより積層される電子機器。
In the electronic device according to claim 18.
The first semiconductor chip is an electronic device laminated by the second semiconductor chip.
JP2020036927A 2020-03-04 2020-03-04 Electronic apparatus Pending JP2020178341A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020036927A JP2020178341A (en) 2020-03-04 2020-03-04 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020036927A JP2020178341A (en) 2020-03-04 2020-03-04 Electronic apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017233417A Division JP6673319B2 (en) 2017-12-05 2017-12-05 Electronics

Publications (1)

Publication Number Publication Date
JP2020178341A true JP2020178341A (en) 2020-10-29

Family

ID=72916311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020036927A Pending JP2020178341A (en) 2020-03-04 2020-03-04 Electronic apparatus

Country Status (1)

Country Link
JP (1) JP2020178341A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006129762A1 (en) * 2005-06-02 2006-12-07 Sony Corporation Semiconductor image sensor module and method for manufacturing same
JP2008160438A (en) * 2006-12-22 2008-07-10 Sony Corp Solid-state imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006129762A1 (en) * 2005-06-02 2006-12-07 Sony Corporation Semiconductor image sensor module and method for manufacturing same
JP2008160438A (en) * 2006-12-22 2008-07-10 Sony Corp Solid-state imaging apparatus

Similar Documents

Publication Publication Date Title
JP7544116B2 (en) Image pickup element and image pickup device
US11637970B2 (en) Electronic apparatus, method for controlling electronic apparatus, and control program
JP6075393B2 (en) Electronic equipment and control program
CN110365909B (en) Electronic device
JP2014165855A (en) Electronic apparatus
JP6409883B2 (en) Electronic equipment and control program
JP7176591B2 (en) Electronics
JP2020178341A (en) Electronic apparatus
JP6673319B2 (en) Electronics
JP7176583B2 (en) Imaging element and imaging device
JP6885374B2 (en) Electronics
JP2024159886A (en) Image sensor
JP2020171054A (en) Electronic device
JP2018148590A (en) Electronic apparatus and imaging device
JP2019092219A (en) Imaging apparatus, control method of the same, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210423

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210614

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210812

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210812

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220118