[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20170061075A - Image sensor and image capturing apparatus - Google Patents

Image sensor and image capturing apparatus Download PDF

Info

Publication number
KR20170061075A
KR20170061075A KR1020160156148A KR20160156148A KR20170061075A KR 20170061075 A KR20170061075 A KR 20170061075A KR 1020160156148 A KR1020160156148 A KR 1020160156148A KR 20160156148 A KR20160156148 A KR 20160156148A KR 20170061075 A KR20170061075 A KR 20170061075A
Authority
KR
South Korea
Prior art keywords
image
section
unit
image data
input
Prior art date
Application number
KR1020160156148A
Other languages
Korean (ko)
Inventor
사토시 스즈키
시게루 이치카와
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20170061075A publication Critical patent/KR20170061075A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N5/353
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/772Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising A/D, V/T, V/F, I/T or I/F converters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • H04N5/3355
    • H04N5/3745
    • H04N5/378
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

복수의 광전 변환소자를 포함하는 촬상부를 구비한 촬상 소자는, 촬상 소자의 외부에서 화상 데이터가 입력되는 입력부와, 촬상부에서 얻어진 화상 데이터 및 입력부에서 입력된 화상 데이터에 대해 화상처리를 실행하는 화상 처리부와, 화상 처리부에 의한 화상처리를 통해 얻어진 화상 데이터를, 외부로 출력하기 위한 출력부를 구비한다. An image pickup device including an image pickup unit including a plurality of photoelectric conversion elements includes an input unit for inputting image data from the outside of the image pickup device and an image processing unit for performing image processing on image data obtained by the image pickup unit and image data input from the input unit And an output unit for externally outputting the image data obtained through the image processing by the image processing unit.

Description

촬상 소자 및 촬상장치{IMAGE SENSOR AND IMAGE CAPTURING APPARATUS}[0001] IMAGE SENSOR AND IMAGE CAPTURING APPARATUS [0002]

본 발명은 촬상 소자 및 촬상장치에 관한 것이다. The present invention relates to an image pickup device and an image pickup apparatus.

최근, 디지털 스틸 카메라와 디지털 비디오 카메라 등의 촬상장치에 사용되는 촬상 소자의 다기능화가 진행하고 있다. 촬상 소자의 다기능화를 달성하는 수단으로서, 빛을 전기로 변환하는 광전 변환소자를 갖는 화소부로 구성되어 있는 촬상부와, 촬상부에서 출력되는 촬상신호에 대해 화상처리를 행하기 위한 화상 처리부를 구비한 촬상 소자가 제안되어 있다. 2. Description of the Related Art In recent years, an imaging device used in an imaging device such as a digital still camera and a digital video camera has been made more multifunctional. As means for achieving the multifunctional function of the image pickup element, there is provided an image pickup section constituted by a pixel section having a photoelectric conversion element for converting light into electricity, and an image processing section for performing image processing on the image pickup signal output from the image pickup section An image pickup device has been proposed.

일본국 특개 2006-49361호 공보에서는, 촬상 소자 칩을 신호 처리 칩 위에 적층하여 제조된 촬상 소자에 관한 기술이 개시되어 있다. Japanese Patent Application Laid-Open No. 2006-49361 discloses a technique relating to an image pickup device manufactured by laminating an image pickup device chip on a signal processing chip.

일본국 특개 2006-49361호 공보에 기재된 촬상 소자의 신호 처리 칩은, 이 반도체 모듈 중에 포함된 촬상 소자 칩으로부터의 출력에 대해 신호 처리를 실행하기 위해 설치되어 있는 것이다. 그 때문에, 촬상 소자로부터 출력된 화상 데이터에 대해 각종 화상처리를 다시 실행하기 위해서는, 촬상 소자 외부에 별도의 화상처리 칩을 설치할 필요가 있어, 여분의 구성요소가 필요하게 된다. The signal processing chip of the image pickup device disclosed in Japanese Patent Application Laid-Open No. 2006-49361 is provided for performing signal processing on the output from the image pickup device chip included in the semiconductor module. Therefore, in order to execute various image processes again on the image data output from the image pickup device, it is necessary to provide a separate image processing chip outside the image pickup device, and an extra component is required.

본 발명은, 상기 문제점을 감안해서 이루어진 것으로서, 촬상 소자의 외부에서의 화상 데이터를 입력을 통해 촬상 소자의 내부에서 화상처리할 수 있도록 한다. SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to enable image processing in the imaging device through inputting image data from the outside of the imaging device.

본 발명에 따르면, 복수의 광전 변환소자를 포함하는 촬상부를 구비한 촬상 소자로서, 상기 촬상 소자의 외부에서 화상 데이터가 입력되는 입력부와, 상기 촬상부에서 얻어진 화상 데이터 및 상기 입력부에서 입력된 화상 데이터에 대해 화상처리를 실행하는 화상 처리부와, 상기 화상 처리부에 의한 화상처리를 통해 얻어진 화상 데이터를, 외부로 출력하기 위한 출력부를 구비한 촬상 소자가 제공된다. According to the present invention, there is provided an image pickup device comprising an image pickup unit including a plurality of photoelectric conversion elements, the image pickup apparatus comprising: an input unit for inputting image data from outside the image pickup device; image data obtained by the image pickup unit; And an output unit for outputting image data obtained through image processing by the image processing unit to the outside.

더구나, 본 발명에 따르면, 복수의 광전 변환소자를 포함하는 촬상부를 구비한 촬상 소자로서, 상기 촬상 소자의 외부에서 화상 데이터가 입력되는 입력부와, 상기 촬상부에서 얻어진 화상 데이터 및 상기 입력부에서 입력된 화상 데이터에 대해 화상처리를 실행하는 화상 처리부와, 상기 화상 처리부에 의한 화상처리를 통해 얻어진 화상 데이터를, 외부로 출력하기 위한 출력부를 구비한 촬상 소자와, 상기 촬상 소자로부터 출력된 화상 데이터의 표시 처리부와, 기록 처리부를 구비한 촬상장치가 제공된다. Furthermore, according to the present invention, there is provided an image pickup device comprising an image pickup section including a plurality of photoelectric conversion elements, the image pickup device comprising: an input section for inputting image data from outside the image pickup device; image data obtained by the image pickup section; An image processing apparatus comprising: an image processing unit for executing image processing on image data; an image pickup element having an output unit for outputting image data obtained through image processing by the image processing unit to the outside; There is provided an image pickup apparatus having a processing section and a recording processing section.

더구나, 본 발명에 따르면, 복수의 광전 변환소자를 갖는 촬상부를 구비한 제1 촬상 소자와, 복수의 광전 변환소자를 갖는 촬상부를 구비한 제2 촬상 소자를 구비하고, 상기 제1 촬상 소자는, 외부에서 화상 데이터가 입력되는 입력부와, 상기 입력부에서 입력된 화상 데이터에 대해 화상처리를 실행하는 화상 처리부와, 상기 화상 처리부에 의한 화상처리를 통해 얻어진 화상 데이터를 외부로 출력하기 위한 출력부를 구비하고, 상기 제2 촬상 소자로부터 상기 제1 촬상 소자의 상기 입력부에 입력된 화상 데이터에 대해 상기 화상 처리부가 화상처리를 실행하는 촬상장치가 제공된다. Furthermore, according to the present invention, there is provided a photoelectric conversion device comprising a first image pickup device having an image pickup section having a plurality of photoelectric conversion elements, and a second image pickup device having an image pickup section having a plurality of photoelectric conversion elements, An image processing section for executing image processing on image data input from the input section; and an output section for outputting image data obtained through image processing by the image processing section to the outside And the image processing section performs image processing on the image data input from the second image pickup element to the input section of the first image pickup device.

본 발명의 또 다른 특징은 (첨부도면을 참조하여 주어지는) 이하의 실시형태의 상세한 설명으로부터 명백해질 것이다. Further features of the present invention will become apparent from the following detailed description of the embodiments (given with reference to the accompanying drawings).

명세서에 포함되고 명세서의 일부를 구성하는 다음의 첨부도면은, 본 발명의 예시적인 실시형태, 특징 및 국면을 예시하며, 상세한 설명과 함께, 본 발명의 원리를 설명하는 역할을 한다.
도 1은 본 발명의 제1 실시형태에 따른 촬상 소자의 구성을 나타낸 블록도이다.
도 2는 제1 실시형태에 따른 촬상 소자의 화상 처리부의 구성을 나타낸 블록도이다.
도 3은 제1 실시형태에 따른 촬상장치의 개략 구성을 나타낸 블록도이다.
도 4는 제1 실시형태에 따른 통상 촬영시 실행되는 처리를 나타낸 흐름도이다.
도 5는 제1 실시형태에서 화상 입력시 실행되는 처리를 나타낸 흐름도이다.
도 6은 제1 실시형태에 따른 촬영 화상과 입력 화상에 대한 화상 합성처리를 나타낸 흐름도이다.
도 7은 제2 실시형태에 따른 촬상장치의 개략 구성을 나타낸 블록도이다.
도 8은 제2 실시형태에 따른 제2 촬상 소자의 구성을 나타낸 블록도이다.
도 9는 제2 실시형태에 따른 제2 촬상 소자에 의해 촬영한 화상에 대해 제1 촬상 소자가 화상처리를 실행할 때 실행되는 촬영 처리를 나타낸 흐름도이다.
도 10은 제2 실시형태에 따라 제1 촬상 소자가 동화상을 촬영하고, 제2 촬상 소자가 정지 화상을 촬영할 때 실행되는 촬영 처리를 나타낸 흐름도이다.
도 11은 제2 실시형태에 따라 제1 및 제2 촬상 소자가 정지 화상을 촬영해서 촬영된 정지 화상이 합성될 때 실행되는 촬영 처리를 나타낸 흐름도이다.
도 12는 제2 실시형태에 따라 제1 및 제2 촬상 소자가 동화상을 촬영해서 촬영된 동화상이 합성될 때 실행되는 촬영 처리를 나타낸 흐름도이다.
도 13은 제2 실시형태에 따라 제2촬상 소자가 제1 촬상 소자에 의해 행해진 촬영의 보조 수단으로서 사용될 때 실행되는 촬영 처리를 나타낸 흐름도이다.
도 14는 제3 실시형태에 따른 촬상 소자의 구성을 나타낸 블록도이다.
도 15는 제3 실시형태에 따른 촬상 소자의 제1 기판의 개략 구성을 나타낸 블록도이다.
도 16은 제3 실시형태에 따른 촬상 소자의 화상 처리부의 구성을 나타낸 블록도이다.
The accompanying drawings, which are incorporated in and form a part of the specification, illustrate exemplary embodiments, features and aspects of the invention and, together with the description, serve to explain the principles of the invention.
1 is a block diagram showing the configuration of an image pickup device according to a first embodiment of the present invention.
2 is a block diagram showing a configuration of an image processing section of an image pickup device according to the first embodiment.
3 is a block diagram showing a schematic configuration of an image pickup apparatus according to the first embodiment.
Fig. 4 is a flowchart showing a process executed at the time of normal photographing according to the first embodiment.
5 is a flowchart showing a process executed when an image is input in the first embodiment.
Fig. 6 is a flowchart showing image composition processing for a captured image and an input image according to the first embodiment.
7 is a block diagram showing a schematic configuration of an image pickup apparatus according to the second embodiment.
8 is a block diagram showing a configuration of a second image pickup device according to the second embodiment.
Fig. 9 is a flowchart showing an image capturing process executed when the first image capturing device performs image processing on an image captured by the second image capturing device according to the second embodiment. Fig.
10 is a flowchart showing an imaging process performed when the first imaging device captures a moving image and the second imaging device captures a still image according to the second embodiment.
Fig. 11 is a flowchart showing an image capturing process executed when the first and second image capturing devices capture a still image and a captured still image is synthesized according to the second embodiment. Fig.
Fig. 12 is a flowchart showing an image capturing process executed when first and second image capturing devices capture a moving image and a captured moving image is synthesized according to the second embodiment. Fig.
Fig. 13 is a flowchart showing an image capturing process executed when the second image capturing device is used as an auxiliary means for capturing by the first image capturing device according to the second embodiment. Fig.
14 is a block diagram showing a configuration of an image pickup device according to the third embodiment.
15 is a block diagram showing a schematic configuration of a first substrate of an image pickup device according to the third embodiment.
16 is a block diagram showing a configuration of an image processing section of an image pickup device according to the third embodiment.

이하, 첨부도면을 참조하여 본 발명의 실시형태를 더욱 상세히 설명한다. 본 실시형태들에서 나타낸 구성요소들의 치수, 형성 및 상대적인 위치는 다양한 상황 및 본 발명에 맞추어 변형된 장치의 구조에 따라 적절히 변경되며, 본 발명은 이들 실시형태들에 한정되는 것은 아니다. Hereinafter, embodiments of the present invention will be described in more detail with reference to the accompanying drawings. The dimensions, the formation and the relative positions of the components shown in these embodiments are appropriately changed according to various situations and the structure of the apparatus modified in accordance with the present invention, and the present invention is not limited to these embodiments.

<제1 실시형태>&Lt; First Embodiment >

우선, 본 발명의 제1 실시형태에 따른 촬상 소자에 대해 설명한다. 제1 실시형태에 따른 촬상 소자는, 촬상 소자의 외부에서 입력된 화상신호를 수신하고, 입력한 화상신호에 대해 촬상 소자 내부에서 화상처리를 실행하는 기능을 갖는다. First, an image pickup device according to a first embodiment of the present invention will be described. The image pickup device according to the first embodiment has a function of receiving an image signal input from the outside of the image pickup device and executing image processing in the image pickup device with respect to the input image signal.

이하, 도 1 및 도 2를 참조하여, 제1 실시형태에 따른 촬상 소자의 구성에 대해 상세하게 설명한다. 도 1은, 본 발명의 제1 실시형태에 따른 촬상 소자의 구성을 나타낸 블록도다. Hereinafter, the configuration of the image pickup device according to the first embodiment will be described in detail with reference to Figs. 1 and 2. Fig. 1 is a block diagram showing the configuration of an image pickup device according to a first embodiment of the present invention.

도 1에 있어서, 촬상 소자(302)는, 제1 기판(101)(촬상부)과 제2 기판(102)(처리부)이 적층된 구조를 갖는다. 제1 기판(101)과 제2 기판(102)은, 제1 기판(101) 내부에 포함된 접속부(106)와 제2 기판(102) 내부에 포함된 접속부(107) 사이에서, 마이크로 범프나 비아 등에 의해 접합되어, 그들 사이에서 전기적인 접속을 확립한다. 미도시이지만, 제1 기판(101) 내부에 포함된 제어회로(103)와 제2 기판(102) 내부에 포함된 화상 처리부(108)도, 통신 가능하게 전기적으로 접속되어 있다. 1, the image pickup element 302 has a structure in which a first substrate 101 (image pickup section) and a second substrate 102 (processing section) are laminated. The first substrate 101 and the second substrate 102 are bonded to each other by a micro bump or a metal film between the connection portion 106 included in the first substrate 101 and the connection portion 107 included in the second substrate 102. [ Vias, etc. to establish an electrical connection therebetween. The control circuit 103 included in the first substrate 101 and the image processing unit 108 included in the second substrate 102 are also electrically connected so as to be able to communicate with each other.

제1 기판(101)은, 수광부(104), 아날로그/디지털(AD) 변환부(105), 접속부(106) 및 제어회로(103)를 구비한다. 수광부(104)에는, 빛을 전기로 변환하는 광전 변환소자를 포함하는 복수의 화소가 행 방향 및 열 방향으로 2차원으로 배치되어 있다. AD 변환부(105)는, 수광부(104)의 화소에 의해 생성된 아날로그 화상신호를 디지털 신호로 변환하고, 접속부(106)는, AD 변환부(105)로부터 출력된 디지털 화상신호(화상 데이터)를 제2 기판(102)에 전송한다. 제어회로(103)는, 수광부(104) 및 AD 변환부(105)에 있어서의 각종 구동을 제어한다. The first substrate 101 includes a light receiving section 104, an analog / digital (AD) conversion section 105, a connection section 106 and a control circuit 103. In the light receiving section 104, a plurality of pixels including a photoelectric conversion element for converting light into electricity are arranged two-dimensionally in the row direction and the column direction. The AD conversion unit 105 converts the analog image signal generated by the pixel of the light receiving unit 104 into a digital signal and the connection unit 106 converts the digital image signal (image data) output from the AD conversion unit 105, To the second substrate (102). The control circuit 103 controls various types of driving in the light receiving unit 104 and the A / D conversion unit 105.

제2 기판(102)은, 접속부(107), 화상 처리부(108), 메모리부(109)와, 출력부(111) 및 입력부(112)를 포함하는 인터페이스부(110)를 구비한다. 접속부(107)는, 제1 기판(101)으로부터 전송되는 화상신호를 수신한다. 화상 처리부(108)는, 제1 기판(101), 메모리부(109) 및 입력부(112)로부터 전송되는 디지털 화상신호(화상 데이터)에 대하여, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 현상 처리 등의 각종 화상처리를 실행한다. 또한, 상기한 각종 화상처리를 실행하는 기능 이외에, 화상 처리부(108)는, 촬영을 통해 얻어진 디지털 화상신호(화상 데이터)와 입력부(112)로부터 전송되는 디지털 화상신호(화상 데이터)를 사용하여, 차분 화상, 가산 화상, 평균 화상 등의 각종 합성 화상을 생성하는 기능과, 복수의 화상 데이터를 결합해서 동화상을 생성하는 기능을 갖는다. 더구나, 화상 처리부(108)은, 입력부(112)로부터 전송되는 화상 데이터를 기초로, 예를 들어, 피사체의 휘도값을 산출하는 기능을 갖는다. 화상 처리부(108)의 구성에 대해서는 도 2를 참조하여 상세하게 후술한다. The second substrate 102 includes an interface section 110 including a connection section 107, an image processing section 108, a memory section 109, an output section 111 and an input section 112. The connection unit 107 receives an image signal transmitted from the first substrate 101. The image processing unit 108 performs signal amplification, reference level adjustment, defective pixel correction processing, and correction processing on the digital image signal (image data) transmitted from the first substrate 101, the memory unit 109 and the input unit 112 And performs various image processing such as processing. In addition to the functions of executing the above-described various image processing, the image processing unit 108 uses the digital image signal (image data) obtained through photographing and the digital image signal (image data) transmitted from the input unit 112, A function of generating various composite images such as a difference image, an addition image, and an average image, and a function of combining moving image data and generating a moving image. Furthermore, the image processing section 108 has a function of calculating, for example, the luminance value of the subject based on the image data transmitted from the input section 112. [ The configuration of the image processing unit 108 will be described later in detail with reference to Fig.

메모리부(109)는, 화상 처리부(108)와 입력부(112)로부터의 화상 데이터를 일시적으로 격납한다. 입력부(112)는, 촬상 소자(302)의 외부에서 입력된 화상 데이터를 수신하고, 화상 처리부(108)와 메모리부(109)에 화상 데이터를 전송하는 한편, 출력부(111)는, 화상 처리부(108)로부터 출력된 화상 데이터를 촬상 소자(302)의 외부로 출력한다. 제1 실시형태에 있어서는, 화상 데이터를 인터페이스부(110)로부터 촬상 소자(302)의 외부로 출력하고, 화상 데이터를 촬상 소자(302)의 외부에서 인터페이스부(110)에 입력하기 위해 공통의 단자를 사용하는 것으로 가정한다. 인터페이스부(110) 내부에 있어서, 화상 데이터 입력시에는 인터페이스부(110)의 단자는 입력부(112)에 접속되고, 화상 데이터 출력시는 인터페이스부(110)의 단자는 출력부(111)에 접속된다. 촬상 소자(302)에 있어서, 제1 기판(101)(촬상부)과 제2 기판(102)(처리부)과 그것들에 포함되는 각 구성요소가 1개의 패키지를 구성한다. The memory unit 109 temporarily stores image data from the image processing unit 108 and the input unit 112. The input unit 112 receives the image data input from the outside of the image pickup device 302 and transfers the image data to the image processing unit 108 and the memory unit 109 while the output unit 111 outputs the image data to the image processing unit 108. [ And outputs the image data output from the image pickup device 108 to the outside of the image pickup device 302. The image data is output from the interface section 110 to the outside of the image sensing element 302 and the image data is input to the common section from the outside of the image sensing element 302 to the interface section 110. In the first embodiment, . &Lt; / RTI &gt; The terminal of the interface unit 110 is connected to the input unit 112 and the terminal of the interface unit 110 is connected to the output unit 111 when the image data is output do. In the image pickup element 302, the first substrate 101 (imaging section), the second substrate 102 (processing section), and the respective components included therein constitute one package.

도 2는, 제1 실시형태에 따른 촬상 소자(302)의 화상 처리부(108)의 구성을 나타낸 블록도다. 도 2에 있어서, 신호 증폭부(201)는, 입력된 디지털 화상신호(화상 데이터)를 소정의 게인으로 증폭한다. 기준 레벨 조정부(202)는, 수광부(104)에 빛이 입사하지 않는 다크 상태에서 디지털 화상신호(화상 데이터)의 신호 레벨이 소정의 값을 갖도록 조정한다. 보정부(203)는, 화상 데이터에 대하여, 결함 화소 보정처리와 다크 셰이딩 보정처리 등의 각종 보정처리를 실행한다. 2 is a block diagram showing a configuration of the image processing unit 108 of the image pickup device 302 according to the first embodiment. In Fig. 2, the signal amplification section 201 amplifies the input digital image signal (image data) with a predetermined gain. The reference level adjusting unit 202 adjusts the signal level of the digital image signal (image data) to be a predetermined value in a dark state in which no light is incident on the light receiving unit 104. [ The correction unit 203 performs various correction processes such as a defective pixel correction process and a dark shading correction process on the image data.

현상 처리부(204)는, 화상 데이터에 대해 화이트 밸런스 조정 등을 실행한 후, 화상 데이터에 대해 현상 처리를 행한다. 화상 합성부(205)는, 수광부(104)에 의해 행해진 촬영을 통해 얻어지고 AD 변환부(105)에서 판독된 화상 데이터와 입력부(112)와 메모리부(109)로부터 전송된 화상 데이터를 사용하여, 차분 화상, 가산 화상, 평균 화상 등의 각종 합성 화상을 생성한다. The development processing section 204 performs development processing on the image data after performing white balance adjustment or the like on the image data. The image composition unit 205 uses the image data obtained through the photographing performed by the light receiving unit 104 and read by the AD conversion unit 105 and the image data transmitted from the input unit 112 and the memory unit 109 , A difference image, a sum image, and an average image.

신호 해석부(206)는, 입력부(112)와 메모리부(109)로부터 전송된 화상 데이터를 해석하고, 그 해석 결과를 기초로, 신호 증폭부(201)에 의해 사용된 신호 증폭률을 설정하고, 제어회로(103)를 거쳐 수광부(104) 및 AD 변환부(105)에 있어서의 각종 구동설정을 행한다. The signal analyzing unit 206 analyzes the image data transmitted from the input unit 112 and the memory unit 109 and sets the signal amplification rate used by the signal amplification unit 201 based on the analysis result, And performs various drive settings in the light receiving unit 104 and the AD conversion unit 105 via the control circuit 103. [

도 3은, 상기한 방식으로 구성된 촬상 소자(302)를 구비한 촬상장치의 개략 구성을 나타낸 블록도다. 도 3에 있어서, 렌즈 및 조리개 등을 포함하는 광학계(301)는 구동회로(304)에 의해 구동되고, 광학계(301)를 거쳐 입사한 입사광을 촬상 소자(302)가 전기신호로 변환한다. 타이밍 신호 발생회로(303)는 촬상 소자(302)를 동작시키는 신호를 발생한다. 본 실시형태에 있어서, 타이밍 신호 발생회로(303)에 의해 발생된 신호에는 수직 및 수평 동기신호, 촬상 소자(302) 내부의 각종 설정 파라미터를 설정하기 위한 설정용 신호 등이 포함된다. 3 is a block diagram showing a schematic configuration of an image pickup apparatus provided with an image pickup device 302 configured in the above manner. 3, an optical system 301 including a lens and a diaphragm is driven by a drive circuit 304 and converts the incident light incident through the optical system 301 into an electric signal by the image pickup element 302. [ The timing signal generating circuit 303 generates a signal for operating the image pickup element 302. [ In the present embodiment, signals generated by the timing signal generating circuit 303 include vertical and horizontal synchronizing signals, setting signals for setting various setting parameters in the image pickup element 302, and the like.

도 1을 참조해서 설명한 것과 같이, 촬상 소자(302)는, 입사광을 변환하여 얻어진 전기신호에 대하여, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 다크 셰이딩 보정처리, 현상 처리 등의 각종 화상처리를 실행하여, 화상신호를 생성하는 기능을 갖는다. 또한, 촬상 소자(302)는, 기록 회로(305)에서 입력된 화상 데이터를 수신하고, 각종 화상처리를 실행하는 기능도 갖는다. 기록 회로(305)는, 촬상 소자(302)로부터 출력된 화상 데이터와, 촬상 소자(302)에 입력된 화상 데이터 등을 기록 및 유지하는 불휘발성 메모리, 메모리 카드, 또는 이와 유사한 기록매체이다. As described with reference to Fig. 1, the image pickup element 302 performs various image processing such as signal amplification, reference level adjustment, defective pixel correction processing, dark shading correction processing, and development processing on the electric signal obtained by converting incident light To generate an image signal. The image pickup device 302 also has a function of receiving the image data input from the recording circuit 305 and executing various image processes. The recording circuit 305 is a nonvolatile memory, a memory card, or a similar recording medium that records and holds image data output from the image pickup element 302, image data input to the image pickup element 302, and the like.

제어회로(306)는 촬상 소자(302), 타이밍 신호 발생회로(303) 및 구동회로(304)를 포함하는 촬상장치 전체를 총괄적으로 구동 및 제어한다. 조작 회로(307)는 촬상장치에 구비된 조작부재로부터의 신호를 접수하고, 제어회로(306)에 대해 유저로부터의 명령을 반영하게 한다. 표시 회로(308)는 촬영된 화상, 라이브 뷰 화상, 각종 설정 화면 등을 표시한다. The control circuit 306 collectively drives and controls the entire image capturing apparatus including the image capturing element 302, the timing signal generating circuit 303 and the drive circuit 304. [ The operation circuit 307 receives a signal from the operation member provided in the image pickup apparatus and causes the control circuit 306 to reflect a command from the user. The display circuit 308 displays a photographed image, a live view image, various setting screens, and the like.

본 실시형태에서는, 촬상장치의 타이밍 신호 발생회로(303)와 제어회로(306)가 촬상 소자(302)와 독립하여 설치되는 구성 예에 대해 소개하였다. 그렇지만, 본 발명은 이러한 구성에 한정되는 것은 아니고, 타이밍 신호 발생회로(303)와 제어회로(306)의 적어도 일부의 기능을 촬상 소자(302)에 내장해도 된다. In the present embodiment, a configuration example in which the timing signal generating circuit 303 and the control circuit 306 of the image pickup apparatus are provided independently of the image pickup element 302 has been described. However, the present invention is not limited to such a configuration, and at least a part of functions of the timing signal generating circuit 303 and the control circuit 306 may be incorporated in the image pickup element 302. [

도 4 내지 도 6을 참조하여, 제1 실시형태에 있어서 촬상 소자(302)를 갖는 촬상장치에 의해 행해지는 각종 촬영 처리 및 화상 생성처리에 대해 상세하게 설명한다. Various shooting processing and image generation processing performed by the imaging apparatus having the imaging element 302 in the first embodiment will be described in detail with reference to Figs. 4 to 6. Fig.

도 4는, 제1 실시형태에서 통상 촬영시 실행되는 처리를 나타낸 흐름도다. 도 4에 있어서, 우선, 조작 회로(307)를 거쳐 유저에 의해 내려진 지시 등에 따라, 감광 속도, 조리개 값, 노광 시간 등의 촬영 조건의 초기 설정이 구성된다(스텝 S401). 이어서, 광학계(301) 등을 제어하여, 촬상 소자(302)의 수광부(104)의 노광을 행한다(스텝 S402). 소정의 축적 시간의 경과후, AD 변환부(105)가 수광부(104)에 의해 생성된 전기신호를 디지털 화상신호(화상 데이터)로 변환한 후, 화상 처리부(108)에 판독한다(스텝 S403). Fig. 4 is a flowchart showing the processing executed in the normal photographing in the first embodiment. In Fig. 4, first, initial settings of photographing conditions such as a photoconductive rate, a diaphragm value, and an exposure time are configured by an instruction given by the user via the operation circuit 307 (step S401). Subsequently, the optical system 301 and the like are controlled to perform exposure of the light receiving unit 104 of the imaging element 302 (step S402). After a predetermined accumulation time has elapsed, the AD conversion unit 105 converts the electric signal generated by the light-receiving unit 104 into a digital image signal (image data), and then reads the digital signal into the image processing unit 108 (step S403) .

이어서, 화상 처리부(108)에 입력된 화상 데이터에 대하여, 신호 증폭부(201), 기준 레벨 조정부(202), 보정부(203) 및 현상 처리부(204)가, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S404). 최후에, 화상 처리부(108)로부터 출력된 화상 데이터를 출력부(111)로부터 촬상 소자(302)의 외부의 기록 회로(305) 혹은 표시 회로(308)에 출력하고(스텝 S405), 본 촬영 처리를 종료한다. Next, the signal amplifying unit 201, the reference level adjusting unit 202, the correcting unit 203 and the developing processing unit 204 perform signal amplification, reference level adjustment, defect Various kinds of image processing such as pixel correction processing, white balance adjustment, and development processing are executed (step S404). Finally, the image data outputted from the image processing section 108 is outputted from the output section 111 to the recording circuit 305 or the display circuit 308 outside the image pickup element 302 (step S405) Lt; / RTI &gt;

도 5는, 제1 실시형태에 있어서 화상 입력시에 실행되는 처리를 나타낸 흐름도다. 도 5를 참조하여 설명하는 화상 입력시 실행되는 처리는, 예를 들면, 과거에 촬상장치에 의해 행해진 촬영을 통해 얻어져 외부에서 보존되어 있었던 RAW 화상 데이터를 촬상장치 내에 포함된 촬상 소자(302)를 사용해서 원하는 현상 파라미터에 근거하여 재현상할 때 이용할 수 있다. Fig. 5 is a flowchart showing a process executed at the time of image input in the first embodiment. The processing executed at the time of image input explained with reference to Fig. 5 can be realized by, for example, acquiring RAW image data obtained through photographing performed in the past by the image capturing apparatus and stored in the outside, Can be used for re-developing based on desired developing parameters.

촬상 소자(302)의 외부에서 입력되는 화상 데이터가 화상 처리부(108)에서 각종 화상처리가 실행되어 출력부(111)로부터 출력된 후, 기록 회로(305)로서의 역할을 하는 불휘발성 메모리, 메모리 카드, 또는 이와 유사한 기록매체에 대한 기록과, 표시 회로(308)에 의해 행해진 화상의 표시에 이 화상 데이터가 사용된다. 이 화상 데이터는 각종 연구와 해석에 사용해도 된다. 예를 들면, 감시 카메라의 분야에서 인물 인식과 얼굴 인식에 화상 데이터를 사용해도 된다. 또한, 자동차 등의 자동 운전을 위한 차량 탑재 카메라 분야에서 보행자의 검출과, 표지, 백선, 도로 상의 장해물 및 자전거를 포함하는 물체 인식과, 문자 인식 등에 화상 데이터를 사용해도 된다. 이때, 신호 처리는 입력된 화상의 모든 영역에 실행할 필요는 없고, 피사체 인식 등의 결과에 근거하여 입력된 화상의 한정된 영역에 실행해도 된다. 또한, 입력부(112) 등에 의해 필요한 영역만 잘라내도 된다. A nonvolatile memory serving as the recording circuit 305 after the image data input from the outside of the image pickup device 302 is output from the output unit 111 after various image processing is executed in the image processing unit 108, , Or similar recording medium, and the display of the image performed by the display circuit 308 are used. This image data may be used for various researches and analyzes. For example, in the field of surveillance cameras, image data may be used for character recognition and face recognition. In addition, image data may be used for detection of pedestrians, object recognition including marking, white lines, obstacles on roads and bicycles, and character recognition in the field of on-board cameras for automatic operation of automobiles and the like. At this time, the signal processing is not necessarily executed in all the areas of the input image, but may be executed in a limited area of the input image based on the result of the recognition of the object or the like. Further, only the necessary area may be cut by the input unit 112 or the like.

도 5에 있어서, 우선, 기록 회로(305)에 보존되어 있는 RAW 화상 데이터를 입력부(112)를 거쳐 촬상 소자(302)에 입력한다(스텝 S501). 이어서, 촬상 소자(302)에 입력된 화상 데이터에 대하여, 화상 처리부(108)의 현상 처리부(204)가, 조작 회로(307)를 거쳐 유저에 의해 내려진 지시 등에 따라, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S502). 이때, 화상처리가 실행되는 입력 화상 데이터는, 촬영시에 화상 처리부(108)의 신호 증폭부(201), 기준 레벨 조정부(202) 및 보정부(203)에 있어서 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 다크 셰이딩 보정처리 등이 실행된 것으로 가정한다. 이들 화상처리후에 화상 데이터가 촬상 소자(302)로부터 출력되어 기록 회로(305)에서 보관되어 있었을 경우, 재차, 촬상 소자(302)에 화상 데이터를 입력하였을 때에는, 이와 같은 화상처리를 생략할 수 있다. 5, RAW image data stored in the recording circuit 305 is input to the image pickup element 302 via the input unit 112 (step S501). The development processing section 204 of the image processing section 108 then performs white balance adjustment, development processing, and the like on the image data input to the image pickup device 302, in accordance with an instruction issued by the user via the operation circuit 307 (Step S502). At this time, the input image data to be subjected to the image processing is subjected to signal amplification, reference level adjustment, defects in the signal amplification section 201, reference level adjustment section 202 and correction section 203 of the image processing section 108, Pixel correction processing, dark shading correction processing, and the like are executed. When image data is output from the image pickup element 302 and stored in the recording circuit 305 after these image processing, such image processing can be omitted when the image data is input to the image pickup element 302 again .

최후에, 각종 화상처리가 실행된 후 화상 처리부(108)로부터 출력된 화상 데이터를, 출력부(111)로부터 촬상 소자(302)의 외부의 기록 회로(305) 혹은 표시 회로(308)에 출력한 후(스텝 S503), 본 처리를 종료한다. The image data output from the image processing unit 108 after the various image processes are executed is output from the output unit 111 to the recording circuit 305 or the display circuit 308 outside the image pickup device 302 (Step S503), and this process is terminated.

이때, 도 4의 흐름도를 참조하여 설명한 처리, 즉 촬영처리 및 촬영 화상 데이터에 대한 화상 처리부(108)에 의해 실행된 화상처리의 타이밍과, 도 5의 흐름도를 참조하여 설명한 화상 처리, 즉 입력 화상 데이터에 대한 화상 처리부(108)에 의해 실행된 화상처리의 타이밍은 다른 것이 바람직하다. 화상 처리부(108)가 촬영 화상 데이터의 화상처리와 입력 화상 데이터의 화상처리를 동시에 실행하지 않고 분산시킴으로써, 화상 처리부(108)의 처리부하를 경감할 수 있는 동시에, 최대 소비 전력량을 억제할 수 있다. At this time, the processing described with reference to the flowchart of Fig. 4, that is, the timing of the image processing executed by the image processing section 108 for the photographing processing and the photographed image data, the image processing described with reference to the flowchart of Fig. 5, It is preferable that the timing of the image processing executed by the image processing section 108 for the data is different. The processing load of the image processing unit 108 can be reduced and the maximum power consumption can be suppressed by dispersing the image processing of the shot image data and the image processing of the input image data without simultaneously executing the image processing unit 108 .

도 6은, 제1 실시형태에 있어서 촬영 화상과 입력 화상에 대한 화상 합성처리를 나타낸 흐름도다. 도 6을 참조하여 설명하는, 촬영 화상과 입력 화상의 화상 합성처리는, 예를 들면, 과거에 촬영해서 촬상 소자(302)의 외부에 보존하고 있었던 화상과 촬상 소자(302)에 의해 새롭게 촬상한 화상을 합성하는 경우 등에 이용할 수 있다. Fig. 6 is a flowchart showing image synthesis processing for a captured image and an input image in the first embodiment. The image synthesis processing of the captured image and the input image, which will be described with reference to Fig. 6, can be performed, for example, in the case where an image captured in the past and stored outside the image sensing element 302, It can be used when synthesizing an image or the like.

도 6에 있어서, 우선, 조작 회로(307)를 거쳐 유저에 의해 내려진 지시 등에 따라, 감광 속도, 조리개 값, 노광 시간 등의 촬영 조건의 초기 설정이 구성된다(스텝 S601). 이어서, 기록 회로(305)에 보존되어 있는 화상 데이터를 입력부(112)를 거쳐 촬상 소자(302) 내부에 입력한 후, 메모리부(109)에서 보관한다(스텝 S602). 입력 화상 데이터는, 이후에 촬영되어 화상 처리부(108)에 판독되는 촬영 화상 데이터와 함께 합성 처리를 행하기 때문에, 촬영 화상 데이터와 같은 상태에 입력 화상 데이터가 있을 필요가 있다. In Fig. 6, an initial setting of photographing conditions such as a photographic speed, a diaphragm value, and an exposure time is first made by an instruction given by the user via the operation circuit 307 (step S601). Subsequently, the image data stored in the recording circuit 305 is input into the image pickup element 302 via the input unit 112, and then stored in the memory unit 109 (step S602). Since the input image data is subjected to composition processing together with the picked-up image data which is subsequently picked up and read by the image processing section 108, the input image data must be in the same state as the picked-up image data.

구체적으로는, 화상 처리부(108)에 판독되는 합성전의 촬영 화상 데이터는, 압축처리 등이 행해지고 있지 않은 RAW 화상 데이터이기 때문에, 입력 화상 데이터도 같은 상태에 있을 필요가 있다. 또한, 촬영 화상 데이터와 입력 화상 데이터는, 촬영 화상 데이터에 대하여, 화상 처리부(108)의 신호 증폭부(201), 기준 레벨 조정부(202) 및 보정부(203)가 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 다크 셰이딩 보정처리 등을 실행한 후에 함께 합성된다. 그 때문에, 입력 화상 데이터가 유사한 처리가 촬영시에 실행된 후 출력되어 보관되어 있었던 것이 바람직하다. Concretely, since the photographed image data before synthesis which is read into the image processing section 108 is RAW image data which is not subjected to compression processing or the like, the input image data also needs to be in the same state. The photographed image data and the input image data are subjected to signal amplification, reference level adjustment, and reference level adjustment by the signal amplification unit 201, the reference level adjustment unit 202 and the correction unit 203 of the image processing unit 108, Defective pixel correction processing, dark shading correction processing, and the like. For this reason, it is preferable that similar processing of the input image data is performed at the time of photographing and then outputted and stored.

그후, 광학계(301) 등을 제어하여, 촬상 소자(302)의 수광부(104)의 노광을 행한다(스텝 S603). 소정의 축적 시간의 경과후, AD 변환부(105)가 수광부(104)에 의해 생성된 전기신호를 디지털 화상신호로 변환한 후, 촬영 화상 데이터로서 화상 처리부(108)에 판독된다(스텝 S604). Thereafter, the optical system 301 and the like are controlled to perform exposure of the light receiving unit 104 of the imaging element 302 (step S603). After a predetermined accumulation time has elapsed, the AD conversion unit 105 converts the electric signal generated by the light receiving unit 104 into a digital image signal, and thereafter, is read to the image processing unit 108 as photographed image data (step S604) .

이어서, 화상 처리부(108)의 화상 합성부(205)가, 촬영 화상 데이터와, 메모리부(109)에 보관된 입력 화상 데이터를 합성한다(스텝 S605). 이때, 축적 시간이나 감광 속도 설정 등의 입력 화상 데이터의 촬영 조건을 촬영 화상 데이터의 촬영 조건과 맞추기 위해, 적절한 게인을 사용하여 입력 화상 데이터를 증폭하는 처리가 동시에 실행된다. Subsequently, the image synthesis section 205 of the image processing section 108 synthesizes the photographed image data and the input image data stored in the memory section 109 (step S605). At this time, in order to match the photographing conditions of the input image data such as the accumulation time or the light-sensitive speed setting with the photographing condition of the photographed image data, a process of amplifying the input image data using an appropriate gain is simultaneously executed.

그리고, 합성된 화상 데이터에 대하여, 화상 처리부(108)의 현상 처리부(204)가, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S606). 최후에, 화상 처리부(108)로부터 출력된 화상 데이터를 출력부(111)로부터 촬상 소자(302)의 외부의 기록 회로(305) 혹은 표시 회로(308)에 출력한 후(스텝 S607), 본 처리를 종료한다. Then, the development processing section 204 of the image processing section 108 executes various image processing such as white balance adjustment, development processing, etc. on the synthesized image data (step S606). Finally, the image data outputted from the image processing section 108 is outputted from the output section 111 to the recording circuit 305 or the display circuit 308 outside the image pickup element 302 (step S607) Lt; / RTI &gt;

상기한 것과 같이, 제1 실시형태에 따르면, 촬상 소자가 입력 화상 데이터를 수신하는 입력부를 구비하고, 촬상 소자 내부에 포함된 화상 처리부가 입력한 화상 데이터에 대해 다양한 화상처리를 실행할 수 있다. 이에 따라, 촬상 소자로부터 출력된 화상의 재현상과, 과거에 촬영해 보관해 둔 화상과, 새롭게 촬영한 화상의 화상 합성 등의 복수의 화상을 사용한 처리를, 외부의 화상 처리회로를 사용하지 않고 행할 수 있다. As described above, according to the first embodiment, the image pickup device is provided with the input section for receiving the input image data, and various image processes can be performed on the image data input by the image processing section included in the image pickup device. This makes it possible to perform processing using a plurality of images such as image re-development output from the image pickup element, images captured and stored in the past, and images synthesized with newly captured images without using an external image processing circuit .

이상, 도 1 내지 도 6을 참조해서 제1 실시형태에 따른 촬상장치에 대해 설명해 왔지만, 본 발명은 이것에 한정되지 않고, 다양한 형태를 취하는 것이 가능하다. The imaging apparatus according to the first embodiment has been described above with reference to Figs. 1 to 6. However, the present invention is not limited to this and can take various forms.

예를 들면, 도 5 및 도 6을 참조하여 설명한 화상 입력시에 실행된 처리에 있어서는, 입력하는 화상 데이터로서, 본 촬상장치에 의해 촬영된 화상을 사용한다. 그렇지만, 본 발명은 이것에 한정되는 것은 아니고, 다른 촬상장치에 의해 촬영되어 출력된 화상을 입력할 수 있다. For example, in the processing executed at the time of image input described with reference to Figs. 5 and 6, an image photographed by the image pickup apparatus is used as input image data. However, the present invention is not limited to this, and an image photographed and output by another imaging device can be input.

도 6을 참조하여 설명한 촬영 화상과 입력 화상에 대한 화상 합성처리에 있어서는, 화상 합성처리의 일례로서, 촬영 화상 데이터와 입력 화상 데이터로부터 단순한 합성 화상을 생성한다. 그렇지만, 본 발명은 이것에 한정되는 것은 아니고, 예를 들면, 하이 다이나믹 레인지 합성 처리(HDR 합성 처리)에서와 같이, 촬영 화데이터와 입력 화상 데이터 각각을 소정의 게인을 사용하여 증폭한 후 합성 화상을 생성하는 처리를 실행해도 된다. In the image combining process for the captured image and the input image described with reference to Fig. 6, a simple combined image is generated from the captured image data and the input image data as an example of the image combining process. However, the present invention is not limited to this. For example, as in the high dynamic range synthesis processing (HDR synthesis processing), the photographed data and the input image data are amplified using a predetermined gain, May be executed.

이때, 입력 화상의 촬영 조건과 촬영 화상의 촬영 조건의 차이는, 입력 화상 데이터를 적절한 게인을 사용하여 증폭하는 처리를 행함으로써 조절하는 것에 한정되지 않고, 예를 들면, 다른 촬영 조건을 갖는 입력 화상 데이터를 복수 종류 입력해서 메모리부(109)에 격납해 두고, 촬영이 행해질 때마다, 촬영시 사용된 촬영 조건에 따라 적절한 입력 화상 데이터를 선택해서 사용해도 된다. 또한, 랜덤 노이즈 저감을 위해, 촬영 화상 데이터 및 입력 화상 데이터에 대한 평균 화상 데이터를 생성하는 처리를 실시해도 된다. The difference between the photographing conditions of the input image and the photographing conditions of the photographing image is not limited to adjusting the input image data by performing the process of amplifying the input image data by using an appropriate gain. For example, A plurality of types of data may be input and stored in the memory unit 109 and appropriate input image data may be selected and used according to the shooting conditions used at the time of shooting each time shooting is performed. Further, in order to reduce the random noise, processing for generating average image data for the captured image data and the input image data may be performed.

예를 들면, 촬영 화상과 입력 화상에 대한 화상 합성처리에 있어서는, 촬영 화상 데이터와 입력 화상 데이터의 차분을 표시하는 차분 화상을 생성해도 된다. 예를 들면, 차량 탑재 카메라 등에 이 방법을 적용할 때, 2개의 화상의 차분을 취하는 것에 의해, 도로상의 장해물, 자전거 및 보행자를 검출해도 된다. 이 방법은, 촬상 소자(302)에 의해 행해진 촬영을 통해 얻어진 화상 데이터에 대하여, 과거에 촬영을 통해 얻어지고 촬상 소자(302)의 외부에 보존하고 있었던 흑(black) 화상 데이터를 사용하여, 촬상 소자(302)의 화상 처리부(108)가 흑 추출 처리를 행하는 경우 등에 이용할 수도 있다. 예를 들면, 천체 촬영시의 흑 추출 처리의 경우, 촬영 화상 데이터인 천체 촬영 화상에서 입력 화상 데이터인 흑 화상을 감산하여 차분 화상을 생성할 수 있다. For example, in the image synthesis processing for the captured image and the input image, a difference image representing the difference between the captured image data and the input image data may be generated. For example, when applying this method to a vehicle-mounted camera or the like, an obstacle on the road, a bicycle, and a pedestrian may be detected by taking a difference between the two images. This method is a method in which black image data obtained through photographing in the past and stored outside the image pickup element 302 are used for image data obtained through photographing performed by the image pickup element 302, Or in the case where the image processing section 108 of the element 302 performs the black extraction processing. For example, in the case of the black extraction processing at the time of shooting the celestial object, the difference image can be generated by subtracting the black image which is the input image data from the celestial object captured image which is the captured image data.

전술한 설명에서는 차분 화상을 생성하기 위해 1종류의 1매에 속하는 화상신호를 입력하지만, 이것에 한정되는 것은 아니다. 예를 들면, 복수의 다른 촬영 조건을 사용한 흑 화상 데이터를 입력해서 메모리부(109)에 격납해 두고, 촬영이 행해질 때마다, 촬영시 사용된 촬영 조건에 따라 적절한 흑 화상 데이터를 선택해서 사용해도 된다. In the above description, an image signal pertaining to one kind of image signal is input to generate a differential image, but the present invention is not limited thereto. For example, black image data using a plurality of different photographing conditions may be input and stored in the memory unit 109, and appropriate black image data may be selected and used according to the photographing conditions used at the time of photographing do.

<제2 실시형태>&Lt; Second Embodiment >

다음에, 본 발명의 제2 실시형태에 대해 설명한다. 도 7은, 제2 실시형태에 따른 촬상장치의 개략 구성을 나타낸 블록도다. 도 7에 나타낸 것과 같이, 제2 실시형태에 따른 촬상장치는, 도 3에 나타낸 촬상장치에, 광학계 801과 제2 촬상 소자(802)를 추가하여 구현된다. 그 이외의 구성은 도 3에 나타낸 것과 유사하기 때문에 설명을 생략하지만, 촬상 소자 302에 대해서는, 제2 촬상 소자(802)와 구별하기 위해서, 제2 실시형태에서는 제1 촬상 소자(302)로 부른다. Next, a second embodiment of the present invention will be described. 7 is a block diagram showing a schematic configuration of an image pickup apparatus according to the second embodiment. As shown in Fig. 7, the imaging apparatus according to the second embodiment is implemented by adding an optical system 801 and a second imaging element 802 to the imaging apparatus shown in Fig. Since the other components are similar to those shown in Fig. 3, the description thereof is omitted. The imaging device 302 is referred to as a first imaging device 302 in the second embodiment in order to distinguish it from the second imaging device 802 .

도 8은, 제2 실시형태에 따른 제2 촬상 소자의 구성을 나타낸 블록도다. 도 8에 있어서, 제2 촬상 소자(802)는, 수광부(702), 아날로그/디지털(AD) 변환부(703), 출력부(704) 및 제어회로(701)를 구비한다. 수광부(702)에는, 빛을 전기로 변환하는 광전 변환소자를 포함하는 복수의 화소가 행 방향 및 열 방향으로 2차원으로 배치되어 있다. AD 변환부(703)는, 수광부(702)의 화소에 의해 생성된 아날로그 화상신호를 디지털 신호(화상 데이터)로 변환하고, 출력부(704)는, AD 변환부(703)로부터 출력된 디지털 화상신호(화상 데이터)를 촬상 소자 802의 외부로 출력한다. 제어회로(701)는, 수광부(702) 및 AD 변환부(703)에 있어서의 각종 구동을 제어한다. 8 is a block diagram showing a configuration of a second image pickup device according to the second embodiment. 8, the second image sensing element 802 includes a light receiving section 702, an analog / digital (AD) conversion section 703, an output section 704 and a control circuit 701. [ In the light receiving section 702, a plurality of pixels including a photoelectric conversion element for converting light into electricity are arranged two-dimensionally in the row direction and the column direction. The A / D converter 703 converts the analog image signal generated by the pixel of the light receiving unit 702 into a digital signal (image data), and the output unit 704 outputs the digital image And outputs a signal (image data) to the outside of the image pickup device 802. The control circuit 701 controls various types of driving in the light receiving unit 702 and the AD conversion unit 703.

도 1에 나타낸 제1 촬상 소자(302)와는 다르게, 제2 촬상 소자(802)는 화상 처리부를 갖지 않는다. 그 때문에, 제2 실시형태에 있어서는, 렌즈 및 조리개 등을 포함하는 광학계 801을 거쳐 입사한 입사광을 제2 촬상 소자(802)가 전기신호로 변환해서. 이 전기신호를 제1 촬상 소자(302)에 출력한다. 그리고, 제1 촬상 소자(302)의 화상 처리부(108)가 각종 화상처리를 행한다. Unlike the first image pickup device 302 shown in Fig. 1, the second image pickup device 802 does not have an image processing section. Therefore, in the second embodiment, incident light incident through an optical system 801 including a lens and diaphragm is converted into an electric signal by the second imaging device 802. And outputs this electric signal to the first image pickup element 302. [ Then, the image processing section 108 of the first image pickup device 302 performs various image processes.

제2 실시형태에서는, 타이밍 신호 발생회로(303)는, 제1 촬상 소자(302) 및 제2 촬상 소자(802)를 동작시키는 신호를 발생하고, 구동회로(304)는, 광학계 301 및 광학계 801을 구동한다. 본 실시형태에 있어서, 타이밍 신호 발생회로(303)에 의해 발생된 신호에는 수직 및 수평 동기신호, 촬상 소자 302 및 802 내부의 각종 설정 파라미터를 설정하기 위한 설정용 신호 등이 포함된다. 타이밍 신호 발생회로(303)에 의해 발생된 신호에는, 예를 들어, 신호의 송신처를 특정하기 위한 어드레스 정보 등을 포함해도 된다. 이렇게 발생된 신호에 송신처를 특정하는 어드레스 정보를 포함시킴으로써, 신호선을 공통으로 사용하는 것이 가능해 진다. 도 7에 있어서, 제1 촬상 소자(302)와 제2 촬상 소자(802)는 타이밍 신호 발생회로(303) 및 제어회로(306)에 대해 병렬로 접속되어 있다. 그러나, 이들 구성에 한정되지 않고, 직렬로 접속해도 된다. 이 경우, 타이밍 신호 발생회로(303)로부터 입력된 신호 등은 제1 촬상 소자(302) 경유로 제2 촬상 소자(802)에 공급된다. 이러한 구성으로 함으로써, 2개 이상의 촬상 소자를 접속하는 경우에 제어용의 접속 회로를 간략화할 수 있다. In the second embodiment, the timing signal generating circuit 303 generates signals for operating the first imaging device 302 and the second imaging device 802, and the driving circuit 304 drives the optical system 301 and the optical system 801 . In the present embodiment, signals generated by the timing signal generating circuit 303 include vertical and horizontal synchronizing signals, setting signals for setting various setting parameters in the image pickup devices 302 and 802, and the like. The signal generated by the timing signal generating circuit 303 may include, for example, address information for specifying a transmission destination of the signal. By including the address information specifying the transmission destination in the thus generated signal, it becomes possible to commonly use the signal line. In Fig. 7, the first imaging device 302 and the second imaging device 802 are connected in parallel to the timing signal generating circuit 303 and the control circuit 306. Fig. However, the present invention is not limited to these configurations, and may be connected in series. In this case, the signal or the like inputted from the timing signal generating circuit 303 is supplied to the second image sensing element 802 via the first image sensing element 302. [ With this configuration, it is possible to simplify the control connection circuit when connecting two or more image pickup devices.

도 9 내지 도 13을 참조하여, 제2 실시형태에 있어서, 촬상장치에 의해 행해지는 각종 촬영 처리 및 화상 생성처리에 대해 상세하게 설명한다. 제2 실시형태에 있어서, 제1 촬상 소자(302)만을 필요로 하는, 통상 촬영시에 실행되는 처리는, 도 4를 참조하여 설명한 제1 실시형태에 따른 것과 같기 때문에, 설명을 생략한다. With reference to Figs. 9 to 13, various shooting processing and image generation processing performed by the imaging apparatus in the second embodiment will be described in detail. Fig. In the second embodiment, the processing that is performed only at the time of normal photographing, which requires only the first image pickup element 302, is the same as that according to the first embodiment described with reference to Fig. 4, and therefore, description thereof will be omitted.

도 9는, 제2 촬상 소자(802)로부터 출력되는 화상 데이터를 제1 촬상 소자(302)에 입력하고, 제1 촬상 소자(302)가 입력 화상 데이터에 각종 화상처리를 실행해서 결과적으로 얻어지는 화상 데이터를 출력할 때 실행되는 촬영 처리를 나타낸 흐름도다. 9 shows an example in which the image data output from the second image pickup device 802 is input to the first image pickup device 302 and the first image pickup device 302 executes various image processes on the input image data, Fig. 18 is a flowchart showing an imaging process executed when data is output.

도 9에 있어서, 우선, 조작 회로(307)를 거쳐 유저에 의해 내려진 지시 등에 따라, 제2 촬상 소자(802)에 대하여, 감광 속도, 조리개 값, 노광 시간 등의 촬영 조건의 초기 설정이 구성된다(스텝 S901). 이어서, 광학계 801 등을 제어하여, 제2 촬상 소자(802)의 수광부(702)의 노광을 행한다(스텝 S902). 소정의 축적 시간의 경과후, 수광부(702)에 의해 생성된 전기신호를 AD 변환부 703이 디지털 화상신호(화상 데이터)로 변환한 후, 출력부(704)로부터 제2 촬상 소자(802)의 외부로 출력된다(스텝 S903). 이때, 제2 촬상 소자(802)는 화상 처리부를 구비하고 있지 않기 때문에, 출력되는 화상 데이터에 대해 각종 화상보정 등이 실행되지 않는다. 9, an initial setting of photographing conditions such as a photographing speed, a diaphragm value, and an exposure time is configured for the second image sensing device 802 according to an instruction or the like issued by the user via the operation circuit 307 (Step S901). Subsequently, the optical system 801 and the like are controlled to perform exposure of the light receiving unit 702 of the second image pickup device 802 (step S902). After the elapse of the predetermined accumulation time, the electric signal generated by the light receiving section 702 is converted from the output section 704 to the digital image signal (image data) by the AD conversion section 703, And outputted to the outside (step S903). At this time, since the second image pickup device 802 does not include the image processing section, various image correction and the like are not executed on the output image data.

제2 촬상 소자(802)로부터 출력된 화상 데이터는 제1 촬상 소자(302)에 입력된다(스텝 S904). 이어서, 제1 촬상 소자(302)에 입력된 화상 데이터에 대하여, 화상 처리부(108)의 신호 증폭부(201), 기준 레벨 조정부(202), 보정부(203) 및 현상 처리부(204)가, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S905). 최후에, 화상 처리부(108)로부터 출력된 화상 데이터를 출력부(111)로부터 제1 촬상 소자(302)의 외부의 기록 회로(305) 혹은 표시 회로(308)에 출력한 후(스텝 S906), 촬영 처리를 종료한다. The image data output from the second image sensing device 802 is input to the first image sensing device 302 (step S904). The signal amplifying unit 201 of the image processing unit 108, the reference level adjusting unit 202, the correcting unit 203 and the developing processing unit 204 are connected to the first image pickup device 302, Signal amplification, reference level adjustment, defective pixel correction processing, white balance adjustment, and development processing (step S905). Finally, the image data outputted from the image processing section 108 is outputted from the output section 111 to the recording circuit 305 or the display circuit 308 outside the first image pickup device 302 (step S906) The photographing process is terminated.

도 10은, 제2 실시형태에 있어서, 제1 촬상 소자(302)가 정지 화상을 촬영하고, 제2 촬상 소자(802)가 동화상을 촬영할 때 실행되는 촬영 처리를 나타낸 흐름도다. 여기에서는 일례로서, 제2 촬상 소자(802)가 라이브 뷰 화상 혹은 동화상을 촬영하고 있는 동안, 제1 촬상 소자(302)가 정지 화상을 촬영하는 경우에 대해 설명한다. 이와 달리, 제1 촬상 소자(302)에서 라이브 뷰 화상 혹은 동화상을 촬영하고 있는 동안에, 제2 촬상 소자(802)가 정지 화상을 촬영해도 된다. Fig. 10 is a flowchart showing an image capturing process executed when the first image capturing device 302 captures a still image and the second image capturing device 802 captures a moving image in the second embodiment. Here, as an example, a case where the first imaging device 302 captures a still image while the second imaging device 802 captures a live view image or a moving image will be described. Alternatively, while the live view image or the moving image is being taken by the first image pickup element 302, the second image pickup element 802 may photograph the still image.

도 10에 있어서, 우선, 조작 회로(307)를 거쳐 유저에 의해 내려진 지시 등에 따라, 제2 촬상 소자(802)에 대하여, 감광 속도, 조리개 값, 노광 시간 등의 촬영 조건의 초기 설정이 구성된다(스텝 S1001). 이어서, 광학계 801 등을 제어하여, 제2 촬상 소자(802)의 수광부(702)의 노광을 행하고, 라이브 뷰 촬영 혹은 동화상 촬영을 개시한다(스텝 S1002). 10, an initial setting of photographing conditions such as a photographing speed, a diaphragm value, and an exposure time is configured for the second image sensing device 802 according to an instruction or the like issued by the user via the operation circuit 307 (Step S1001). Subsequently, the optical system 801 and the like are controlled to perform exposure of the light receiving section 702 of the second image pickup device 802, and live view photographing or moving image photographing is started (step S1002).

AD 변환부 703은, 수광부(702)에 의해 생성된 프레임마다의 전기신호를 디지털 화상신호(화상 데이터)로 변환하고, 출력부(704)로부터 제2 촬상 소자(802)의 외부로 출력한다(스텝 S1003). 이때, 제2 촬상 소자(802)는 화상 처리부를 구비하고 있지 않기 때문에, 출력되는 화상 데이터에는 각종 화상보정 등이 실행되지 않는다. The AD conversion unit 703 converts an electric signal for each frame generated by the light receiving unit 702 into a digital image signal (image data), and outputs the digital image signal (image data) from the output unit 704 to the outside of the second image sensing device 802 Step S1003). At this time, since the second image pickup device 802 does not have an image processing section, various image correction and the like are not executed on the output image data.

제2 촬상 소자(802)로부터 출력된 화상 데이터는, 제1 촬상 소자(302)에 입력된다(스텝 S1004). 이어서, 제1 촬상 소자(302)에 입력된 화상 데이터에 대하여, 화상 처리부(108)의 신호 증폭부(201), 기준 레벨 조정부(202), 보정부(203) 및 현상 처리부(204)가, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S1005). 그리고, 화상 처리부(108)로부터 출력된 화상 데이터를 출력부(111)로부터, 동화상 촬영시 및 라이브 뷰 촬영시에 제1 촬상 소자(302)의 외부의 기록 회로(305) 및 표시 회로(308)에 각각 출력한다(스텝 S1006). The image data output from the second image sensing device 802 is input to the first image sensing device 302 (step S1004). The signal amplifying unit 201 of the image processing unit 108, the reference level adjusting unit 202, the correcting unit 203 and the developing processing unit 204 are connected to the first image pickup device 302, Signal amplification, reference level adjustment, defective pixel correction processing, white balance adjustment, and development processing (step S1005). The image data output from the image processing unit 108 is supplied from the output unit 111 to the recording circuit 305 and the display circuit 308 outside the first image pickup element 302 at the time of moving image capture and live view image capture, Respectively (step S1006).

라이브 뷰 촬영 혹은 동화상 촬영중에, 유저가 조작 회로(307)를 거쳐 정지 화상 촬영의 지시를 내린 경우(스텝 S1007에서 YES), 제1 촬상 소자(302)가 정지 화상 촬영을 개시한다. If the user gives an instruction to shoot a still image via the operation circuit 307 (YES in step S1007) during live view shooting or moving image shooting, the first imaging device 302 starts shooting the still image.

우선, 조작 회로(307)를 거쳐 유저에 의해 내려진 지시 등에 따라, 제1 촬상 소자(302)에 대하여, 감광 속도, 조리개 값, 노광 시간 등의 촬영 조건의 초기 설정이 구성된다(스텝 S1008). 이어서, 광학계(301)등을 제어하여, 제1 촬상 소자(302)의 수광부(104)의 노광을 행한다(스텝 S1009). 소정의 축적 시간의 경과후, AD 변환부 105는, 수광부(104)에 의해 생성된 전기신호를 디지털 화상신호(화상 데이터)로 변환한 후, 화상 처리부(108)에 판독된다(스텝 S1010). First, the initial setting of the shooting conditions such as the speed of light exposure, the aperture value, and the exposure time is configured for the first image sensing element 302 in accordance with an instruction or the like issued by the user via the operation circuit 307 (step S1008). Subsequently, the optical system 301 and the like are controlled to perform exposure of the light receiving unit 104 of the first imaging device 302 (step S1009). After a predetermined accumulation time elapses, the AD conversion unit 105 converts the electric signal generated by the light receiving unit 104 into a digital image signal (image data), and thereafter, is read to the image processing unit 108 (step S1010).

이어서, 화상 처리부(108)에 입력된 화상신호에 대하여, 신호 증폭부(201), 기준 레벨 조정부(202), 보정부(203) 및 현상 처리부(204)가, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S1011). 그리고, 화상 처리부(108)로부터 출력된 화상신호를 출력부(111)로부터 제1 촬상 소자(302)의 외부의 기록 회로(305) 혹은 표시 회로(308)에 출력한다(스텝 S1012). The signal amplifying unit 201, the reference level adjusting unit 202, the correcting unit 203 and the developing processing unit 204 perform signal amplification, reference level adjustment, Various kinds of image processing such as pixel correction processing, white balance adjustment, and development processing are executed (step S1011). The image signal output from the image processing unit 108 is output from the output unit 111 to the recording circuit 305 or the display circuit 308 outside the first imaging device 302 (step S1012).

정지 화상 촬영후, 또는, 정지 화상 촬영의 지시가 행해지고 있지 않은 경우(스텝 S1007에서 NO), 계속해서 라이브 뷰 촬영 혹은 동화상 촬영을 계속할지를 판정한다(스텝 S1013). 라이브 뷰 촬영 혹은 동화상 촬영을 계속하는 경우에는, 일련의 촬영 동작이 스텝 S1001로 되돌아가, 다음의 프레임에 대한 라이브 뷰 촬영 혹은 동화상 촬영을 행하고, 라이브 뷰 촬영 혹은 동화상 촬영을 계속하지 않는 경우에는, 일련의 촬영 동작을 종료한다. After the still image shooting, or when the instruction to shoot still image is not made (NO in step S1007), it is determined whether to continue live view shooting or moving image shooting (step S1013). When the live view photographing or moving image photographing is continued, a series of photographing operations return to step S1001 to perform live view photographing or moving image photographing for the next frame, and when live view photographing or moving image photographing is not continued, And ends the series of photographing operations.

도 11은, 제2 실시형태에 있어서, 제1 촬상 소자(302)와 제2 촬상 소자(802)에 의해 각각 촬영한 정지 화상을 합성할 때 실행되는 촬영 처리를 나타낸 흐름도다. 이 촬영 방법은, 예를 들면, 2개의 촬상 소자를 사용해서 3D 표시용의 복수의 시차 화상을 생성하는 경우 등에 이용할 수 있다. 차량 탑재 카메라 등에 이 방법을 사용하는 경우, 2개의 촬상 소자를 사용해서 얻어지는 시차 화상에 근거하여 피사체의 측거를 행해도 된다. 즉, 2개의 촬상 소자로부터 얻어지는 시차 화상으로부터 삼각측량의 원리를 이용하여 대상물까지의 거리를 계측할 수 있다. 11 is a flowchart showing an image capturing process executed when a still image captured by the first image capturing device 302 and the second image capturing device 802 are respectively synthesized in the second embodiment. This imaging method can be used, for example, when a plurality of parallax images for 3D display are generated using two imaging elements. When this method is used in a vehicle-mounted camera or the like, the object may be positioned on the basis of a parallax image obtained by using two imaging elements. That is, the distance from the parallax image obtained from the two imaging elements to the object can be measured using the principle of triangulation.

도 11에 있어서, 우선, 조작 회로(307)를 거쳐 유저에 의해 내려진 지시 등에 따라, 제1 촬상 소자(302) 및 제2 촬상 소자(802)에 대하여, 감광 속도, 조리개 값, 노광 시간 등의 촬영 조건의 초기 설정이 구성된다(스텝 S1101). 이어서, 광학계 301 및 801 등을 제어하여, 제1 촬상 소자(302)의 수광부(104) 및, 제2 촬상 소자(802)의 수광부(702)의 노광을 행한다(스텝 S1102). 소정의 축적 시간의 경과후, AD 변환부 105는 제1 촬상 소자(302)의 수광부(104)에 의해 생성된 전기신호를 디지털 화상신호(화상 데이터)로 변환한 후, 촬영 화상 데이터로서 화상 처리부(108)에 판독된다(스텝 S1103). 또한, AD 변환부 703은 제2 촬상 소자(802)의 수광부(702)에 의해 생성된 전기신호를 디지털 화상신호(화상 데이터)로 변환한 후, 출력부(704)로부터 제2 촬상 소자(802)의 외부로 출력하여(스텝 S1103), 촬상 소자 302에 입력된다(스텝 S1104). 이때, 촬상 소자 802는 화상 처리부를 구비하고 있지 않기 때문에, 제2 촬상 소자(802)로부터 출력되어 촬상 소자 302에 입력되는 화상 데이터에 대해 각종 화상보정 등이 실행되지 않는다. 11, first of all, with respect to the first imaging device 302 and the second imaging device 802, the imaging speed, the aperture value, the exposure time, and the like The initial setting of the shooting conditions is configured (step S1101). Subsequently, the optical systems 301 and 801 are controlled to perform exposure of the light receiving unit 104 of the first imaging device 302 and the light receiving unit 702 of the second imaging device 802 (step S1102). After a predetermined accumulation time has elapsed, the AD conversion unit 105 converts the electric signal generated by the light receiving unit 104 of the first image pickup device 302 into a digital image signal (image data), and thereafter, (Step S1103). The AD conversion unit 703 converts an electric signal generated by the light receiving unit 702 of the second image pickup device 802 into a digital image signal (Step S1103), and is input to the image sensing element 302 (step S1104). At this time, since the image pickup device 802 does not have an image processing section, various image correction and the like are not executed on the image data output from the second image pickup device 802 and input to the image pickup device 302. [

그후, 제1 촬상 소자(302)에 의해 행해진 촬영을 통해 얻어진 화상 데이터와, 제2 촬상 소자(802)에 의해 행해진 촬영을 통해 얻어진 화상 데이터 각각에 대해, 화상 처리부(108)의 신호 증폭부(201), 기준 레벨 조정부(202), 보정부(203) 및 현상 처리부(204)가, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리 등의 각종 화상처리를 실행한다. 각종 화상처리를 실행한 후, 이 화상 데이터 쌍은 화상 처리부(108)의 화상 합성부(205)에 의해 합성된다(스텝 S1105). 이어서, 합성된 화상 데이터에 대하여, 화상 처리부(108)의 현상 처리부(204)가 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S1106). Thereafter, the image data obtained through the imaging performed by the first imaging device 302 and the image data obtained through the imaging performed by the second imaging device 802 are supplied to the signal amplifying unit 201, the reference level adjusting unit 202, the correcting unit 203 and the developing processing unit 204 execute various image processes such as signal amplification, reference level adjustment, defective pixel correcting process, and the like. After executing various image processes, the image data pair is synthesized by the image synthesis unit 205 of the image processing unit 108 (step S1105). Next, with respect to the synthesized image data, the development processing section 204 of the image processing section 108 executes various image processing such as white balance adjustment and development processing (step S1106).

최후에, 화상 처리부(108)로부터 출력된 화상 데이터를 출력부(111)로부터 촬상 소자 302의 외부의 기록 회로(305) 혹은 표시 회로(308)에 출력한 후(스텝 S1107), 촬영 처리를 종료한다. Finally, the image data output from the image processing unit 108 is outputted from the output unit 111 to the recording circuit 305 or the display circuit 308 outside the image pickup element 302 (step S1107), and the image pickup processing is terminated do.

도 12는, 제2 실시형태에 있어서, 제1 촬상 소자(302)와 제2 촬상 소자(802)에 의해 동일한 피사체의 동화상을 촬영해서 합성할 때 실행되는 촬영 처리를 나타낸 흐름도다. 이 촬영 방법은, 예를 들면, 1개의 촬상 소자로부터 출력된 화상 데이터와 다른 촬상 소자로부터 출력된 화상 데이터를 교대로 판독해서 이것들을 합성함으로써, 고속 프레임 레이트의 동화상을 생성하는 경우에 이용할 수 있다. Fig. 12 is a flowchart showing an imaging process performed when a moving image of the same subject is captured and synthesized by the first imaging device 302 and the second imaging device 802 in the second embodiment. This imaging method can be used, for example, in the case of generating a moving image at a high frame rate by alternately reading image data output from one imaging element and image data output from another imaging element and synthesizing them .

도 12에 있어서, 우선, 조작 회로(307)를 거쳐 유저에 의해 내려진 지시 등에 따라, 제1 촬상 소자(302) 및 제2 촬상 소자(802)에 대하여, 감광 속도, 조리개 값, 노광 시간 등의 촬영 조건의 초기 설정이 구성된다(스텝 S1201). 이어서, 광학계 301 및 801 등을 제어하여, 제1 촬상 소자(302)의 수광부(104) 및, 제2 촬상 소자(802)의 수광부(702)를 노광하고, 동화상 촬영을 개시한다(스텝 S1202). 이때, 제1 촬상 소자(302)와 제2 촬상 소자(802)는 같은 프레임 레이트와 반주기에 대응하는 위상 시프트로 동화상 촬영을 행한다. 12, first of all, with respect to the first image sensing element 302 and the second image sensing element 802, an exposure speed, an aperture value, an exposure time, and the like The initial setting of the shooting conditions is configured (step S1201). Subsequently, the optical systems 301 and 801 and the like are controlled to expose the light receiving unit 104 of the first image pickup device 302 and the light receiving unit 702 of the second image pickup device 802 to start moving image pickup (step S1202) . At this time, the first image sensing element 302 and the second image sensing element 802 perform moving image sensing with a phase shift corresponding to the same frame rate and half period.

제1 촬상 소자(302)의 수광부(104)가 1프레임에 해당하는 축적을 완료하였을 때, AD 변환부 105는 수광부(104)에 의해 생성된 전기신호를 디지털 화상신호(화상 데이터)로 변환한 후, 촬영 화상 데이터로서 화상 처리부(108)에 판독된다(스텝 S1203). 이어서, 화상 처리부(108)에 판독된 화상 데이터에 대하여, 화상 처리부(108)의 신호 증폭부(201), 기준 레벨 조정부(202), 보정부(203) 및 현상 처리부(204)가 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S1204). 신호 처리가 실행된 화상 데이터는 메모리부(109)에 기록된다(스텝 S1205). When the light receiving unit 104 of the first image sensing element 302 completes the accumulation corresponding to one frame, the AD conversion unit 105 converts the electric signal generated by the light receiving unit 104 into a digital image signal (image data) Thereafter, the image data is read to the image processing unit 108 as photographed image data (step S1203). The signal amplifying unit 201 of the image processing unit 108, the reference level adjusting unit 202, the correcting unit 203, and the developing processing unit 204 perform signal amplification and correction on the image data read to the image processing unit 108, Various kinds of image processing such as reference level adjustment, defective pixel correction processing, white balance adjustment, and development processing are executed (step S1204). The image data subjected to the signal processing is recorded in the memory unit 109 (step S1205).

이어서, 제2 촬상 소자(802)의 수광부(702)가 1프레임에 해당하는 축적을 완료하였을 때, AD 변환부 703은 수광부(702)에 의해 생성된 전기신호를 디지털 화상신호로 변환한 후, 출력부(704)로부터 제2 촬상 소자(802)의 외부로 출력한다(스텝 S1206). 이때, 제2 촬상 소자(802)는 화상 처리부를 구비하고 있지 않기 때문에, 출력되는 화상 데이터에는 각종 화상보정 등이 실행되지 않는다. Subsequently, when the light receiving section 702 of the second image capturing device 802 completes the accumulation corresponding to one frame, the AD conversion section 703 converts the electric signal generated by the light receiving section 702 into a digital image signal, From the output unit 704 to the outside of the second image sensing device 802 (step S1206). At this time, since the second image pickup device 802 does not have an image processing section, various image correction and the like are not executed on the output image data.

제2 촬상 소자(802)로부터 출력된 화상 데이터는 제1 촬상 소자(302)에 입력된다(스텝 S1207). 이어서, 입력부(112)를 거쳐 제2 촬상 소자(802)로부터 입력된 화상 데이터에 대하여, 화상 처리부(108)의 신호 증폭부(201), 기준 레벨 조정부(202), 보정부(203) 및 현상 처리부(204)가, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 프레임간 노이즈 리덕션 처리, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S1208). 신호 처리가 실행된 화상 데이터는, 앞서 기록된 제1 촬상 소자(302)의 화상 데이터에 이어서, 메모리부(109)에 기록된다(스텝 S1209). The image data output from the second image sensing element 802 is input to the first image sensing element 302 (step S1207). The signal amplifying unit 201 of the image processing unit 108, the reference level adjusting unit 202, the correcting unit 203, and the image processing unit 106 are connected to the image data input from the second image sensing device 802 via the input unit 112, The processing unit 204 performs various image processing such as signal amplification, reference level adjustment, defective pixel correction processing, inter-frame noise reduction processing, white balance adjustment, and development processing (step S1208). The image data subjected to the signal processing is recorded in the memory unit 109 following the image data of the first image pickup element 302 recorded before (step S1209).

그후, 계속해서 동화상 촬영을 계속할지를 판정한다(스텝 S1210). 동화상 촬영을 계속하는 경우에는, 일련의 촬영 동작이 스텝 S1203으로 되돌아가, 전술한 처리를 반복한다. 동화상 촬영을 계속하지 않는 경우에는, 제1 촬상 소자(302)의 수광부(104) 및, 제2 촬상 소자(802)의 수광부(702)에 있어서의 노광을 멈추고 동화상 촬영을 종료한다(스텝 S1211). 그리고, 메모리부(109)에 기록한 동화상 데이터를 출력부(111)로부터 제1 촬상 소자(302) 외부의 기록 회로(305)에 출력하고(스텝 S1212), 일련의 촬영 동작을 종료한다. Then, it is determined whether to continue moving image capture (step S1210). When moving image shooting is to be continued, a series of photographing operations are returned to step S1203, and the above-described processing is repeated. When the moving image capturing is not to be continued, the exposure of the light receiving unit 104 of the first image capturing device 302 and the light receiving unit 702 of the second image capturing device 802 is stopped and the moving image capturing is ended (step S1211) . The moving image data recorded in the memory unit 109 is output from the output unit 111 to the recording circuit 305 outside the first image sensing element 302 (step S1212), and a series of image sensing operations ends.

도 13은, 제2 실시형태에 있어서, 제1 촬상 소자(302)에 의해 행해진 촬영의 촬영 조건을 정하기 위한 보조 수단으로서 제2 촬상 소자(802)를 사용하는 경우에 실행되는 촬영 처리를 나타낸 흐름도다. 이와 같은 처리는, 예를 들면, 제2 촬상 소자(802)로부터의 출력 신호에 근거하여, 제1 촬상 소자(302) 내부에 포함된 화상 처리부(108)가 피사체의 측광값을 산출하고, 산출한 측광값에 근거하여, 제1 촬상 소자(302)에 의해 행해진 촬영의 촬영 조건을 규정하는 경우에 이용할 수 있다. 13 is a flowchart showing a photographing process performed when the second image pickup device 802 is used as an auxiliary means for determining the photographing condition of photographing performed by the first image pickup device 302 in the second embodiment All. Such processing is performed by, for example, based on the output signal from the second image sensing element 802, the image processing section 108 included in the first image sensing element 302 calculates the photometric value of the subject, And can be used when the photographing condition of the photographing performed by the first imaging device 302 is specified on the basis of one photometry value.

도 13에 있어서, 우선, 제2 촬상 소자(802)에 대하여, 감광 속도, 노광 시간 등의 측정 조건의 초기 설정이 구성된다(스텝 S1301). 이어서, 광학계 801 등을 제어하여, 제2 촬상 소자(802)의 수광부(702)의 노광을 행하여, 촬영을 개시한다(스텝 S1302). AD 변환부 703이 수광부(702)에 의해 생성된 프레임마다의 전기신호를 디지털 화상신호(화상 데이터)로 변환한 후, 출력부(704)로부터 제2 촬상 소자(802)의 외부로 출력한다(스텝 S1303). 이때, 제2 촬상 소자(802)는 화상 처리부를 구비하고 있지 않기 때문에, 출력되는 화상 데이터에 대해 각종 화상보정 등이 실행되지 않는다. In Fig. 13, first, the initial setting of the measurement conditions such as the light-sensitive speed and the exposure time is configured for the second image sensing element 802 (step S1301). Subsequently, the optical system 801 and the like are controlled to perform exposure of the light receiving section 702 of the second image sensing element 802 to start photographing (step S1302). The AD conversion unit 703 converts an electric signal for each frame generated by the light receiving unit 702 into a digital image signal (image data), and then outputs the electric signal from the output unit 704 to the outside of the second image sensing device 802 Step S1303). At this time, since the second image pickup device 802 does not include the image processing section, various image correction and the like are not executed on the output image data.

제2 촬상 소자(802)로부터 출력된 화상 데이터는, 제1 촬상 소자(302)에 입력된다(스텝 S1304). 이어서, 화상 처리부(108)의 신호 해석부(206)는 제2 촬상 소자(802)로부터의 화상 데이터를 해석하여, 예를 들면, 피사체의 휘도값을 산출한다(스텝 S1305). 그리고, 그 산출 결과를 기초로, 감광 속도, 조리개 값, 노광 시간 등의 제1 촬상 소자(302)에 의해 행해진 촬영의 촬영 조건을 설정한다(스텝 S1306). 이어서, 광학계 301 등을 제어하여, 제1 촬상 소자(302)의 수광부(104)의 노광을 행한다(스텝 S1307). 소정의 축적 시간의 경과후, AD 변환부 105가 수광부(104)에 의해 생성된 전기신호를 디지털 화상신호(화상 데이터)로 변환한 후, 화상 처리부(108)에 판독된다(스텝 S1308). The image data output from the second image sensing device 802 is input to the first image sensing device 302 (step S1304). Subsequently, the signal analyzing unit 206 of the image processing unit 108 analyzes the image data from the second image pickup device 802 and calculates the luminance value of the subject, for example (step S1305). Then, on the basis of the calculation result, photographing conditions for photographing performed by the first imaging device 302 such as the photospecting speed, the aperture value, and the exposure time are set (step S1306). Subsequently, the optical system 301 and the like are controlled to perform exposure of the light receiving unit 104 of the first imaging device 302 (step S1307). After a predetermined accumulation time elapses, the AD conversion unit 105 converts the electric signal generated by the light receiving unit 104 into a digital image signal (image data), and thereafter, is read to the image processing unit 108 (step S1308).

이어서, 화상 처리부(108)에 입력된 화상 데이터에 대하여, 신호 증폭부(201), 기준 레벨 조정부(202), 보정부(203), 현상 처리부(204)가 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S1309). 최후에, 화상 처리부(108)로부터 출력된 화상 데이터를 출력부(111)로부터 제1 촬상 소자(302)의 외부의 기록 회로(305) 혹은 표시 회로(308)에 출력하고(스텝 S1310), 촬영 처리를 종료한다. The signal amplification section 201, the reference level adjustment section 202, the correction section 203 and the development processing section 204 perform signal amplification, reference level adjustment, Correction processing, white balance adjustment, and development processing (step S1309). Finally, the image data outputted from the image processing section 108 is outputted from the output section 111 to the recording circuit 305 or the display circuit 308 outside the first image pickup device 302 (step S1310) The processing is terminated.

상기한 것과 같이, 제2 실시형태에 따르면, 제1 실시형태에서 설명한 촬상 소자 이외에 다른 촬상 소자를 구비하므로, 다른 촬상 소자에 의해 행해진 촬영을 통해 생성된 화상 데이터에 대하여 촬상 소자 내에 포함된 화상 처리회로를 사용해서 화상처리를 실행할 수 있다. 즉, 2개의 촬상 소자의 화상 데이터에 대한 화상처리를, 외부의 화상처리회로를 사용하지 않고 실행할 수 있다. As described above, according to the second embodiment, since the image pickup device other than the image pickup device described in the first embodiment is provided, the image data generated through the image pickup performed by the other image pickup device is subjected to image processing Image processing can be performed using a circuit. That is, image processing for image data of two imaging elements can be performed without using an external image processing circuit.

또한, 화상처리회로를 촬상 소자의 내부에 설치함으로써, 촬상 소자의 외부에 설치된 1개의 화상처리회로가 복수의 촬상 소자로부터의 화상 데이터를 입력으로서 수신할 필요가 있는 경우에 달성될 수 없는 이점이 있다. 이들 이점으로는, 복수의 촬상 소자로부터의 화상 데이터를 합성한 결과를 출력할 때에, 고속화 뿐만 아니라, 회로에 필요한 단자수를 들 수 있다. In addition, by providing the image processing circuit inside the image pickup element, an advantage that can not be achieved when one image processing circuit provided outside the image pickup element needs to receive image data from a plurality of image pickup elements as input have. These advantages include not only speeding up but also the number of terminals required for a circuit when outputting the result of combining image data from a plurality of image pickup devices.

전술한 본 실시형태에서는, 제1 촬상 소자(302)가 화상 처리부를 구비하지만, 제2 촬상 소자(802)가 화상 처리부를 구비하지 않는 구성 예에 대해 소개했다. 그렇지만, 본 실시형태는 이러한 구성에 한정되는 것은 아니고, 예를 들면, 제2 촬상 소자(802)도 제1 촬상 소자(302)와 유사한 화상 처리부 및 입력부를 구비하고, 한쪽의 촬상 소자의 화상 처리부만을 사용해서 화상처리를 행하는 경우에는, 다른 쪽의 촬상 소자의 화상 처리부를 동작시키지 않고, 즉 전력공급을 받지 않거나, 또는 전력 절약제어 하에 놓여도 된다. In the above-described embodiment, the first imaging device 302 has an image processing unit, but the second imaging device 802 has no image processing unit. However, the present embodiment is not limited to such a configuration. For example, the second imaging device 802 also includes an image processing unit and an input unit similar to the first imaging device 302, The image processing section of the other image pickup element is not operated, that is, the power supply is not received, or the image processing section of the other image pickup element is placed under the power saving control.

전술한 본 실시형태에서는 촬상장치의 제어회로(306)를 제1 촬상 소자(302) 및 제2 촬상 소자(802)와는 독립하여 설치하는 구성 예에 대해 소개했다. 그렇지만, 본 실시형태는 이러한 구성에 한정되는 것은 아니고, 제어회로(306)의 적어도 일부의 구성을 제1 촬상 소자(302)나 제2 촬상 소자(802)에 내장하도록 구성해도 된다. 예를 들면, 제1 촬상 소자(302)가 타이밍 신호 발생회로(303)를 내장 구성요소로서 포함하는 경우, 제2 촬상 소자(802)에 신호를 공급하고, 제2 촬상 소자(802)는 제1 촬상 소자(302)에 의해 제어된다. In the above-described embodiment, a configuration example in which the control circuit 306 of the image pickup apparatus is installed independently of the first image pickup device 302 and the second image pickup device 802 has been described. However, the present embodiment is not limited to such a configuration, and at least part of the configuration of the control circuit 306 may be built in the first imaging device 302 or the second imaging device 802. For example, when the first imaging device 302 includes the timing signal generating circuit 303 as an internal component, the second imaging device 802 supplies a signal to the second imaging device 802, 1 image pickup element 302. [0050]

2개의 촬상 소자 중에서, 한 개가 가시 광선을 촬상하는 한편, 나머지 한 개가 적외선 등의 비가시 광선을 촬상해도 된다. 이와 달리, 2개의 촬상 소자 중에서, 한개(예를 들면, 가시 광선을 촬상하는 촬상 소자)가 칼라 화상을 촬영하고, 나머지 한개(예를 들면, 비가시 광선을 촬상하는 촬상 소자)가 흑백 화상을 촬영해도 된다. One of the two imaging elements may pick up a visible ray and the other one may capture an invisible ray such as an infrared ray. Alternatively, one of the two imaging elements (for example, an imaging element that captures visible light) captures a color image, and the other one (e.g., an imaging element that captures an invisible ray) It may be photographed.

이때, 제1 촬상 소자(302)와 제2 촬상 소자(802)는 타이밍 신호 발생회로(303) 및 제어회로(306)에 대해 직렬로 접속하는 구성으로 해도 된다. 이 경우, 제2 촬상 소자(802)에서 출력되는 화상 데이터는 제1 촬상 소자(302) 경유로 기록 회로(305) 등에 기록되게 된다. 이러한 구성에 있어서, 제2 촬상 소자(802)에서 출력되는 화상 데이터를 표시 회로(308)에 표시하는 경우, 제1 촬상 소자(302) 내부에서 처리를 하는 것은 표시 타이밍을 지연시킬 염려가 있다. 이 지연 타이밍을 저감하기 위해, 제1 촬상 소자(302)에 있어서, 입력부(112)와 출력부(111)를 바이패스하도록 데이터가 제어되어도 된다. 이러한 구성으로 함으로써, 2개 이상의 촬상 소자를 직렬로 접속하는 경우에 기록 또는 표시 타이밍의 지연을 저감할 수 있다. At this time, the first imaging device 302 and the second imaging device 802 may be connected to the timing signal generating circuit 303 and the control circuit 306 in series. In this case, the image data output from the second image sensing device 802 is recorded in the recording circuit 305 or the like via the first image sensing device 302. [ In such a configuration, when the image data output from the second image pickup device 802 is displayed on the display circuit 308, there is a fear that processing in the first image pickup device 302 delays the display timing. In order to reduce the delay timing, data may be controlled so as to bypass the input section 112 and the output section 111 in the first image pickup element 302. With this configuration, it is possible to reduce the delay of the recording or display timing when two or more image pickup devices are connected in series.

<제3 실시형태>&Lt; Third Embodiment >

다음에, 본 발명의 제3 실시형태에 대해 설명한다. 제3 실시형태에 따른 촬상 소자(1400)는 제1 및 제2 실시형태에 따른 촬상 소자(302)와 다른 구성을 갖는다. 이때, 제3 실시형태에 따른 촬상장치는, 촬상 소자 302가 후술하는 촬상 소자 1400으로 치환된 것을 제외하고는, 제1 실시형태에서 도 3을 참조하여 설명한 촬상장치, 또는, 제2 실시형태에서 도 7을 참조하여 설명한 촬상장치와 같다. 그 이외의 구성은 제1 및 제2 실시형태에서 설명한 구성과 유사하기 때문에, 설명을 생략한다. Next, a third embodiment of the present invention will be described. The image pickup device 1400 according to the third embodiment has a different structure from the image pickup device 302 according to the first and second embodiments. The imaging apparatus according to the third embodiment is different from the imaging apparatus described with reference to Fig. 3 in the first embodiment or the imaging apparatus explained in the second embodiment except that the imaging element 302 is replaced with an imaging element 1400 Is the same as the imaging device described with reference to Fig. Since the other structures are similar to those described in the first and second embodiments, the description is omitted.

도 14는, 제3 실시형태에 따른 촬상 소자(1400)의 구성을 나타낸 블록도다. 도 14에 있어서, 촬상 소자(1400)는, 제1 기판(1401)과 제2 기판(1402)이 적층된 구조를 갖는다. 제1 기판(1401)과 제2 기판(1402)은, 제1 기판(1401) 내부의 접속부 1404와, 제2 기판(1402) 내부의 접속부 1405 사이에서, 복수의 관통 전극(1406)에 의해 전기적으로 접속되어 있고, 이때, 접속부 1404는 1개 이상의 화소로 각각 구성된 화소 세트와 1대 1 대응하여 설치되고 접속부 1405와 같은 수를 갖는다. 이들 관통 전극은, 예를 들면, 스루 실리콘 비아(through-silicon via(TSV))이다. 14 is a block diagram showing a configuration of an image pickup device 1400 according to the third embodiment. In Fig. 14, the image pickup device 1400 has a structure in which a first substrate 1401 and a second substrate 1402 are laminated. The first substrate 1401 and the second substrate 1402 are electrically connected to each other by a plurality of penetrating electrodes 1406 between a connecting portion 1404 in the first substrate 1401 and a connecting portion 1405 in the second substrate 1402 At this time, the connection portion 1404 is provided in a one-to-one correspondence with the pixel sets each composed of one or more pixels and has the same number as the connection portion 1405. [ These through electrodes are, for example, through-silicon vias (TSV).

제1 기판(1401)은, 수광부(1411), 접속부 1404, 제어회로(1410)를 구비한다. 수광부(1411)에서는, 빛을 전기로 변환하는 광전 변환소자를 포함하는 복수의 화소(1403)가 행 방향 및 열 방향으로 2차원으로 배치되어 있고, 수광부(1411)에 의해 생성한 신호를 접속부 1404를 거쳐 제2 기판(1402)으로 전송한다. 제어회로(1410)는, 수광부(1411)에 있어서의 각종 구동을 제어한다. 제3 실시형태의 설명에 있어서, 1개의 접속부 1404는 도 14에 나타낸 것과 같이 2X2, 즉 4개의 화소(1403)로 구성된 화소 세트당 구비하는 것으로 가정한다. The first substrate 1401 includes a light receiving section 1411, a connection section 1404, and a control circuit 1410. In the light receiving section 1411, a plurality of pixels 1403 including photoelectric conversion elements for converting light into electricity are arranged two-dimensionally in the row direction and the column direction, and the signal generated by the light receiving section 1411 is connected to the connection section 1404 To the second substrate 1402 via the second substrate 1402. The control circuit 1410 controls various types of driving in the light receiving section 1411. [ In the description of the third embodiment, it is assumed that one connection section 1404 is provided per pixel set composed of 2X2, that is, four pixels 1403 as shown in Fig.

제2 기판(1402)은, 접속부 1405, 화상 처리부(1408), 메모리부(109)와, 입력부(112) 및 출력부(111)로 이루어진 인터페이스부(110)를 구비한다. 메모리부(109) 및 인터페이스부(110)의 구성요소, 즉 입력부(112) 및 출력부(111)는 도 1을 참조하여 설명한 것과 유사하기 때문에, 여기에서는 설명을 생략한다. 접속부 1405는, 제1 기판으로부터 전송되는 화상신호를 받는다. The second substrate 1402 includes a connecting portion 1405, an image processing portion 1408, a memory portion 109 and an interface portion 110 composed of an input portion 112 and an output portion 111. The components of the memory unit 109 and the interface unit 110, that is, the input unit 112 and the output unit 111 are similar to those described with reference to FIG. 1, and thus the description thereof is omitted here. The connection section 1405 receives an image signal transmitted from the first substrate.

화상 처리부(1408)는, 제1 기판(1401)으로부터 접속부 1405를 거쳐 전송되는 아날로그 신호를 디지털 신호로 변환한다. 화상 처리부(1408)는, AD 변환을 통해 얻어진 화상 데이터와 메모리부(109) 및 입력부(112)로부터 전송되는 화상 데이터에 대하여, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 현상 처리 등의 각종 화상처리를 실행한다. 화상 처리부(1408)는, 2X2, 즉 4개의 화소(1403)로 각각 구성된 화소 시트와 1 대 1로 대응하도록 구비된 복수의 부분 화상 처리부(1407)를 구비한다. 화상 처리부(1408)의 구성에 대해서는 도 16을 참조해서 상세하게 후술한다. The image processing unit 1408 converts the analog signal transmitted from the first substrate 1401 through the connection unit 1405 into a digital signal. The image processing unit 1408 performs various kinds of processing such as signal amplification, reference level adjustment, defective pixel correction processing, development processing, and the like on the image data obtained through AD conversion and the image data transmitted from the memory unit 109 and the input unit 112 And executes image processing. The image processing unit 1408 includes a plurality of partial image processing units 1407 provided so as to correspond one by one to the pixel sheets each composed of 2X2, that is, four pixels 1403. The configuration of the image processing unit 1408 will be described later in detail with reference to FIG.

도 15를 참조하여, 이하에서는, 제3 실시형태에 따른 촬상 소자(1400)의 수광부(1411)) 및 주변의 구성요소의 구성에 대해 상세하게 설명한다. 도 15는, 제3 실시형태에 따른, 촬상 소자(1400)의 제1 기판(1401)의 개략 구성을 나타낸 블록도다. 15, the following will describe in detail the configuration of the components of the light-receiving portion 1411 of the image pickup device 1400 and peripheral components according to the third embodiment. Fig. 15 is a block diagram showing a schematic configuration of a first substrate 1401 of an image pickup device 1400 according to the third embodiment.

도 15에 나타낸 것과 같이, 촬상 소자(1400)의 제1 기판(1401)은, 복수의 화소(1403)가 행렬 방향으로 배치되어 있는 수광부(1411)와, 제어회로(1410)와, 구동 신호선(1501)을 갖고 있다. 제어회로(1410)는, 각 화소(1403)들에게 구동 신호선(1501)을 거쳐 구동 펄스를 송출한다. 이때, 간략화를 위해, 도면에는 한 개의 구동 신호선(1501)이 1행마다 또는 2행마다 설치되어 있지만, 실제로는, 각 화소마다 화소(1403)의 구동을 제어하는데 적절한 복수의 구동 신호선이 접속된다. 화소 세트를 구성하는 2X2, 즉 4개의 화소(1403)가 동일한 접속부 1404에 접속된다. 제어회로(1410)는, 동일한 접속부 1404를 공유하는 각 화소(1403)에 의해 생성되는 신호가 서로 혼합되지 않고, 발생된 신호를 순서대로 제2 기판(1402)에 출력하도록 제어를 행한다. 도 15에 있어서는, 8행 8열로 수광부(1411)를 구성하는 화소(1403)가 배치되어 있지만, 실제로는 수천 행 및 수천 열로 배치된다. 15, the first substrate 1401 of the image pickup device 1400 includes a light receiving portion 1411 in which a plurality of pixels 1403 are arranged in a matrix direction, a control circuit 1410, 1501). The control circuit 1410 sends drive pulses to the pixels 1403 via the drive signal line 1501. [ In this case, for simplicity, one drive signal line 1501 is provided for each row or every two rows in the figure, but actually, a plurality of drive signal lines suitable for controlling the drive of the pixel 1403 are connected to each pixel . 2X2, that is, four pixels 1403 constituting the pixel set are connected to the same connection portion 1404. [ The control circuit 1410 performs control so that the signals generated by the respective pixels 1403 sharing the same connection portion 1404 are not mixed with each other and the generated signals are sequentially output to the second substrate 1402. [ In Fig. 15, although the pixels 1403 constituting the light-receiving unit 1411 are arranged in 8 rows and 8 columns, they are actually arranged in thousands rows and thousands columns.

이때, 제1 실시형태에 있어서, 도 1 및 도 2를 참조하여 설명한 촬상 소자(302)의 구성요소와 같은 구성요소에 대해서는 동일한 부호를 붙이고, 상세한 설명을 생략한다. Here, in the first embodiment, the same components as those of the imaging element 302 described with reference to Figs. 1 and 2 are denoted by the same reference numerals, and a detailed description thereof will be omitted.

도 16은, 제3 실시형태에 따른 촬상 소자(1400)의 화상 처리부(1408)의 구성을 나타낸 블록도다. 제3 실시형태에 있어서는, 화상 처리부(1408)는, 복수의 부분 화상 처리부(1407), 보정부(1603), 화상 합성부(1605) 및 현상 처리부(1604)로 구성된다. 제3 실시형태에서 나타낸 예에서는, 부분 화상 처리부(1407)는, 2X2, 즉 4개의 화소(1403)로 각각 구성된 화소 세트와 1 대 1 대응하여 구비되고, 각각 접속부 1405, AD 변환부(1600), 신호 증폭부(1601), 기준 레벨 조정부(1602) 및 신호 해석부(1606)로 구성된다. AD 변환부(1600)는, 접속부 1405를 거쳐 판독되는 각 화소(1403)로부터의 아날로그 화상신호를 디지털 신호(화상 데이터)로 변환한다. 그 밖의 구성요소는 도 2를 참조하여 설명한 제1 실시형태의 촬상 소자(302)의 화상 처리부(108)의 구성요소와 유사하기 때문에, 설명은 생략한다. 16 is a block diagram showing the configuration of the image processing section 1408 of the image pickup device 1400 according to the third embodiment. In the third embodiment, the image processing unit 1408 includes a plurality of partial image processing units 1407, a correction unit 1603, an image synthesis unit 1605, and a development processing unit 1604. In the example shown in the third embodiment, the partial image processing unit 1407 is provided in a one-to-one correspondence with pixel sets each composed of 2X2, that is, four pixels 1403, and has a connection unit 1405, an AD conversion unit 1600, A signal amplifying unit 1601, a reference level adjusting unit 1602, and a signal analyzing unit 1606. The A / D converter 1600 converts an analog image signal from each pixel 1403 read via the connection unit 1405 into a digital signal (image data). The other components are similar to those of the image processing unit 108 of the image pickup device 302 of the first embodiment described with reference to Fig. 2, and therefore, description thereof is omitted.

이때, 보정부(1603)에 있어서의 각종 보정처리, 화상 합성부(1605)에 있어서의 화상 합성처리, 및 현상 처리부(1604)에 있어서의 현상 처리는, 복수의 부분 화상 처리부(1407)에 있어서 각종 화상처리를 통해 얻어진 화상 데이터를 1개의 화상 데이터로 병합한 후에 행한다. At this time, various correction processing in the correction unit 1603, image synthesis processing in the image composition unit 1605, and development processing in the development processing unit 1604 are performed in a plurality of partial image processing units 1407 After merging the image data obtained through various image processing into one image data.

다음에, 제3 실시형태에 따른 촬영 처리의 일례에 대해 상세하게 설명한다. 여기에서는, 제2 실시형태에서 설명한 도 7에 나타낸 구성을 갖는 촬상장치에 있어서 제1 촬상 소자(302) 대신에 촬상 소자 1400을 사용하는 것으로 가정하고, 제2 촬상 소자(802)와 구별하기 위해, 제1 촬상 소자(1400)로 부른다. 이하, 도 13의 흐름도를 참조하여, 제1 촬상 소자(1400)의 촬영 조건을 정하기 위한 보조 수단으로서 제2 촬상 소자(802)를 사용하는 경우에 실행되는 처리를 설명한다. 이 처리는, 예를 들면, 제2 촬상 소자(802)로부터의 출력 신호에 근거하여, 제1 촬상 소자(1400) 내부에 포함된 화상 처리부(108)가 피사체의 측광값을 산출하고, 산출한 측광값에 근거하여, 제1 촬상 소자(1400)에 대한 촬영 조건을 정하는 경우에 이용할 수 있다. Next, an example of the photographing process according to the third embodiment will be described in detail. Here, it is assumed that the image pickup device 1400 is used instead of the first image pickup device 302 in the image pickup apparatus having the configuration shown in Fig. 7 described in the second embodiment, and in order to distinguish it from the second image pickup device 802 , And the first image pickup device 1400. Hereinafter, with reference to the flowchart of Fig. 13, the processing executed when the second imaging device 802 is used as an auxiliary means for determining the imaging conditions of the first imaging device 1400 will be described. In this process, for example, based on the output signal from the second image pickup device 802, the image processing section 108 included in the first image pickup device 1400 calculates the photometric value of the subject, And can be used when the photographing condition for the first imaging device 1400 is determined based on the photometric value.

이때, 제2 촬상 소자(802)가 화상을 취득하고 그 출력 신호를 촬상 소자(1400)에 입력하는 스텝 S1301 내지 스텝 S1304의 처리는 제2 실시형태의 처리와 유사하기 때문에, 설명을 생략한다. At this time, the processing in steps S1301 to S1304 in which the second image sensing element 802 acquires an image and inputs the output signal to the image sensing element 1400 is similar to the processing in the second embodiment, and therefore a description thereof will be omitted.

다음에, 화상 처리부(1408)의 신호 해석부(1606)는 제2 촬상 소자(802)로부터의 화상 데이터를 해석하여, 예를 들면, 피사체의 휘도값을 화소(1403)와 1 대 1 대응하여 산출한다(스텝 S1305). 그리고, 그 산출 결과를 기초로, 감광 속도, 조리개 값, 노광 시간 등의 제1 촬상 소자(1400)에 의해 행해진 촬영의 촬영 조건을 설정한다(스텝 S1306). Next, the signal analyzing unit 1606 of the image processing unit 1408 analyzes the image data from the second image sensing device 802, for example, correlates the luminance value of the subject with the pixel 1403 one by one (Step S1305). Then, on the basis of the calculation result, photographing conditions for photographing performed by the first imaging device 1400 such as the photospecting speed, the aperture value, and the exposure time are set (step S1306).

이때, 제3 실시형태에 있어서는, 신호 해석부(1606)에 의한 해석 결과를 기초로, 휘도값에 따른 제1 촬상 소자(1400) 내부에 있어서의 서로 다른 전하 축적 시간 등의 촬영 조건을 사용하여, 보다 넓은 다이나믹 레인지를 지원하는 동작을 실현할 수 있다. 구체적으로는, 피사체의 휘도값이 높은 것으로 추정되는 화소(1403)는, 제어회로(103)를 거쳐, 촬상 소자(1400)를 노광하는 동안 축적 시간이 더 짧아지도록 제어를 행한다. 반대로, 피사체의 휘도값이 낮은 것으로 추정되는 화소(1403)는, 전하 축적 시간이 더 길어지도록 제어를 행한다. 이렇게 제어함으로써, 통상의 촬영시에 얻어진 화상보다 다이나믹 레인지가 넓은 화상을 취득하는 것이 가능하다. 또한, 신호 해석부(1606)에 의한 피사체 휘도의 해석 결과를 기초로, 부분 화상 처리부(1407)의 신호 증폭부에 의해 사용된 증폭률을, 각 화소(1403)에 의해 발생된 피사체 휘도마다 제어함으로써도, 이와 유사한 유리한 효과를 얻을 수 있다. At this time, in the third embodiment, on the basis of the analysis result by the signal analyzing section 1606, by using imaging conditions such as different charge accumulation times in the first imaging device 1400 according to the luminance value , It is possible to realize an operation supporting a wider dynamic range. Specifically, the pixel 1403, which is estimated to have a high luminance value of the subject, performs control so that the accumulation time becomes shorter while the imaging element 1400 is exposed via the control circuit 103. [ Conversely, the pixel 1403, which is estimated to have a low luminance value of the subject, performs control so that the charge accumulation time becomes longer. By this control, it is possible to acquire an image having a dynamic range larger than that obtained at the time of normal photographing. The amplification factor used by the signal amplification unit of the partial image processing unit 1407 is controlled for each subject luminance generated by each pixel 1403 based on the analysis result of the subject luminance by the signal analysis unit 1606 , A similar advantageous effect can be obtained.

그후, 제1 촬상 소자(1400)에 의한 화상 취득으로부터 화상 데이터 출력까지의 처리(스텝 S1307 내지 스텝 S1310)는, 제2 실시형태에서 설명한 처리와 동일하기 때문에, 설명을 생략한다. Thereafter, the processes from the image acquisition by the first image pickup device 1400 to the image data output (steps S1307 to S1310) are the same as the process described in the second embodiment, and therefore the description is omitted.

이상에서 도 14 내지 도 16을 참조해서 제3 실시형태에 따른 촬상장치에 대해 설명하였지만, 본 발명은 이것에 한정되지 않고, 다양한 형태로 구현해도 된다. 14 to 16, the image pickup apparatus according to the third embodiment has been described. However, the present invention is not limited to this and may be implemented in various forms.

예를 들면, 도 14 및 도 15를 참조하여 설명한 촬상 소자(1400)의 구성에 따르면, 화소 세트를 구성하는 2X2, 즉 4개의 화소(1403)가 공통된 접속부 1404, 접속부 1405, 관통 전극(1406) 및 부분 화상 처리부(1407)를 공유한다. 그렇지만, 본 발명은 이것에 한정되는 것은 아니고, 보다 많은 화소(1403)가 이것들을 공유하거나, 1개의 화소(1403)가 이들을 점유하여 사용해도 된다. For example, according to the configuration of the imaging element 1400 described with reference to Figs. 14 and 15, 2X2, that is, four pixels 1403 constituting a pixel set are connected to a common connecting portion 1404, a connecting portion 1405, a penetrating electrode 1406, And the partial image processing unit 1407 are shared. However, the present invention is not limited to this, and more pixels 1403 may share them, or one pixel 1403 may occupy them.

예를 들면, 도 16을 참조하여 설명한 화상 처리부(1408)의 구성에 따르면, 각 부분 화상 처리부(1407)가 대응하는 기준 레벨 조정부(1602)와 신호 해석부(1606)를 구비한다. 그렇지만, 본 발명은 이것에 한정되는 것은 아니고, 화상 처리부(1408)가 한 개의 기준 레벨 조정부와 신호 해석부를 구비해도 된다. For example, according to the configuration of the image processing unit 1408 described with reference to FIG. 16, each partial image processing unit 1407 includes a corresponding reference level adjusting unit 1602 and a signal analyzing unit 1606. However, the present invention is not limited to this, and the image processing section 1408 may include one reference level adjusting section and a signal analyzing section.

도 1 내지 도 16을 참조하여, 제1 내지 제3 실시형태에 따른 촬상장치에 대해 설명하였지만, 본 발명은 이것에 한정되지 않고, 다양한 형태로 구현해도 된다. The imaging apparatus according to the first to third embodiments has been described with reference to Figs. 1 to 16. However, the present invention is not limited to this and may be implemented in various forms.

예를 들면, 도 1을 참조하여 설명한 촬상 소자(302)는, 2매의 기판이 적층되도록 구성된다. 그렇지만, 본 발명은 이것에 한정되는 것은 아니고, 1매의 기판 위에 수광부(104) 및 화상 처리부(108)를 포함하는 모든 요소가 장착되어도 되고, 또는 3매 이상의 기판이 적층되어도 된다. For example, the imaging element 302 described with reference to Fig. 1 is configured so that two substrates are stacked. However, the present invention is not limited thereto, and all the elements including the light receiving unit 104 and the image processing unit 108 may be mounted on one substrate, or three or more substrates may be stacked.

또한, 예를 들면, 도 3 및 도 7을 참조하여 설명한 촬상장치의 구성에 따르면, 촬상 소자에 의해 생성된 화상 데이터에 대한 각종 화상처리를 모두 촬상 소자(302) 내부의 화상 처리부(108)가 행하고, 촬상 소자 외부에 화상 처리회로가 설치되지 않는다. 그렇지만, 본 발명은 이것에 한정되는 것은 아니고, 촬상 소자(302)와는 별도로 화상 처리회로를 구비하고, 촬영한 화상 데이터에 대한 각종 화상처리를 내부의 화상 처리부(108)와 외부의 화상 처리회로가 분담해도 된다. 3 and 7, all of the image processing for the image data generated by the image pickup device is performed by the image processing unit 108 inside the image pickup device 302 And an image processing circuit is not provided outside the image pickup device. However, the present invention is not limited to this, and an image processing circuit may be provided separately from the image pickup device 302, and various kinds of image processing for the photographed image data may be performed by an internal image processing section 108 and an external image processing circuit You can share.

예를 들면, 도 1을 참조하여 설명한 촬상 소자(302)의 구성에 따르면, 인터페이스부(110)가, 단자수 삭감을 위해, 화상 데이터를 인터페이스부(110)로부터 촬상 소자(302)의 외부로 출력하고, 화상 데이터를 촬상 소자(302)의 외부에서 인터페이스부(110)에 입력하기 위한 공통의 단자를 사용한다. 그렇지만, 본 발명은 이것에 한정되는 것은 아니고, 입력 단자와 출력 단자를 별개로 각각 독립하여 설치해도 된다. 특히 제2 실시형태와 같이 제1 촬상 소자(302)에 화상신호가 빈번하게 입력될 때에는, 입력 및 출력을 위해 공통 단자를 사용하는 것 대신에, 입력 단자와 출력 단자를 별개로 구비하는 것이 바람직하다. For example, according to the configuration of the image pickup device 302 described with reference to Fig. 1, the interface unit 110 can transfer image data from the interface unit 110 to the outside of the image pickup device 302 And uses a common terminal for inputting image data from the outside of the image pickup device 302 to the interface section 110. [ However, the present invention is not limited to this, and the input terminal and the output terminal may be provided separately from each other. Particularly, when image signals are frequently input to the first image pickup device 302 as in the second embodiment, it is preferable that the input terminal and the output terminal are provided separately from each other instead of using a common terminal for input and output Do.

예시적인 실시형태들을 참조하여 본 발명을 설명하였지만, 본 발명이 이러한 실시형태에 한정되지 않는다는 것은 자명하다. 이하의 청구범위의 보호범위는 가장 넓게 해석되어 모든 변형, 동등물 구조 및 기능을 포괄하여야 한다. While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to those embodiments. The scope of the following claims is to be accorded the broadest interpretation so as to encompass all such modifications, equivalent structures and functions.

Claims (29)

복수의 광전 변환소자를 포함하는 촬상부를 구비한 촬상 소자로서,
상기 촬상 소자의 외부에서 화상 데이터가 입력되는 입력부와,
상기 촬상부에서 얻어진 화상 데이터 및 상기 입력부에서 입력된 화상 데이터에 대해 화상처리를 실행하는 화상 처리부와,
상기 화상 처리부에 의한 화상처리를 통해 얻어진 화상 데이터를, 외부로 출력하기 위한 출력부를 구비한 촬상 소자.
An imaging device comprising an imaging section including a plurality of photoelectric conversion elements,
An input unit for inputting image data from the outside of the image pickup device;
An image processing unit for executing image processing on image data obtained by the image pickup unit and image data input from the input unit;
And an output unit for outputting image data obtained through image processing by the image processing unit to the outside.
제 1항에 있어서,
상기 촬상부, 상기 입력부, 상기 화상 처리부 및 상기 출력부가 1개의 패키지로 설치된 촬상 소자.
The method according to claim 1,
Wherein the image pickup section, the input section, the image processing section, and the output section are provided in one package.
제 1항에 있어서,
상기 촬상부에 의한 촬영의 타이밍이, 상기 촬상 소자의 외부에서 상기 입력부에 화상 데이터가 입력되는 타이밍과 다른 촬상 소자.
The method according to claim 1,
Wherein the timing of photographing by the image pickup unit is different from the timing at which image data is input from the outside of the image pickup device to the input unit.
제 1항에 있어서,
상기 촬상부에서 얻어진 화상 데이터를 상기 화상 처리부에 공급하는 공급부를 더 구비하고, 상기 공급부는 상기 입력부와 독립된 촬상 소자.
The method according to claim 1,
Further comprising a supply section for supplying the image data obtained by the image pickup section to the image processing section, wherein the supply section is independent of the input section.
제 1항에 있어서,
상기 입력부에서 입력되는 화상 데이터는, 적어도 표시, 기록 및 분석 중 어느 한개에 사용되는 촬상 소자.
The method according to claim 1,
Wherein the image data input from the input unit is used for at least one of display, recording and analysis.
제 1항에 있어서,
상기 화상 처리부는, 상기 입력부에 입력된 화상 데이터에 대해 현상 처리를 실행하는 촬상 소자.
The method according to claim 1,
Wherein the image processing unit executes development processing on the image data input to the input unit.
제 1항에 있어서,
상기 화상 처리부는, 상기 촬상부에서 얻어진 화상 데이터와, 상기 입력부에서 입력된 화상 데이터를 합성하는 합성 처리를 행하는 촬상 소자.
The method according to claim 1,
Wherein the image processing unit performs a combining process of combining the image data obtained by the image pickup unit and the image data input by the input unit.
제 7항에 있어서,
상기 합성 처리에서, 상기 화상 처리부는, 상기 촬상부에서 얻어진 화상 데이터와 상기 입력부에서 입력된 화상 데이터를 다른 게인을 사용하여 증폭하는 촬상 소자.
8. The method of claim 7,
In the combining processing, the image processing unit amplifies the image data obtained by the imaging unit and the image data input by the input unit using different gains.
제 7항에 있어서,
상기 합성 처리에서, 상기 화상 처리부는, 상기 촬상부에서 얻어진 화상 데이터와 상기 입력부에서 입력된 화상부의 평균을 구하는 촬상 소자.
8. The method of claim 7,
In the combining processing, the image processing unit obtains the image data obtained by the image pickup unit and the average of the image units input from the input unit.
제 1항에 있어서,
상기 화상 처리부는, 상기 촬상부에서 얻어진 화상 데이터로부터, 상기 입력부에서 입력된 화상 데이터를 감산하는 촬상 소자.
The method according to claim 1,
Wherein the image processing unit subtracts the image data input from the input unit from the image data obtained by the image pickup unit.
제 1항에 있어서,
상기 화상 처리부는 복수의 광전 변환소자로 각각 구성된 광전 변환소자 세트들과 1 대 1 대응하여 복수 설치된 촬상 소자.
The method according to claim 1,
Wherein the image processing unit is provided with a plurality of photoelectric conversion element sets each composed of a plurality of photoelectric conversion elements in one-to-one correspondence.
제 11항에 있어서,
미리 결정된 수의 광전 변환소자로 각각 구성된 광전 변환소자 세트들과 1 대 1 대응하여 설치된 복수의 접속부를 더 구비하고,
상기 화상 처리부는 상기 복수의 접속부와 1 대 1 대응하여 설치된 촬상 소자.
12. The method of claim 11,
Further comprising a plurality of connecting portions provided in a one-to-one correspondence with the set of photoelectric conversion elements each composed of a predetermined number of photoelectric conversion elements,
Wherein the image processing unit is provided in a one-to-one correspondence with the plurality of connection units.
제 1항에 있어서,
공통 단자가 상기 입력부의 구성요소와 상기 출력부의 구성요소 모두로서의 역할을 하는 촬상 소자.
The method according to claim 1,
Wherein the common terminal serves as both a component of the input section and a component of the output section.
제 1항에 있어서,
상기 촬상부와 상기 화상 처리부는, 적층된 서로 다른 기판 위에 구성되고, 서로 전기적으로 접속되어 있는 촬상 소자.
The method according to claim 1,
Wherein the imaging section and the image processing section are formed on different substrates stacked and electrically connected to each other.
복수의 광전 변환소자를 포함하는 촬상부를 구비한 촬상 소자로서, 상기 촬상 소자의 외부에서 화상 데이터가 입력되는 입력부와, 상기 촬상부에서 얻어진 화상 데이터 및 상기 입력부에서 입력된 화상 데이터에 대해 화상처리를 실행하는 화상 처리부와, 상기 화상 처리부에 의한 화상처리를 통해 얻어진 화상 데이터를 외부로 출력하기 위한 출력부를 구비한 촬상 소자와,
상기 촬상 소자로부터 출력된 화상 데이터의 표시 처리부와,
기록 처리부를 구비한 촬상장치.
An image pickup device comprising an image pickup section including a plurality of photoelectric conversion elements, the image pickup device comprising: an input section for inputting image data outside the image pickup device; image processing means for performing image processing on the image data obtained by the image pickup section and the image data input from the input section And an output unit for outputting image data obtained through image processing by the image processing unit to the outside,
A display processing unit of image data output from the image pickup element,
And a recording processing unit.
복수의 광전 변환소자를 갖는 촬상부를 구비한 제1 촬상 소자와,
복수의 광전 변환소자를 갖는 촬상부를 구비한 제2 촬상 소자를 구비하고,
상기 제1 촬상 소자는,
외부에서 화상 데이터가 입력되는 입력부와,
상기 입력부에서 입력된 화상 데이터에 대해 화상처리를 실행하는 화상 처리부와,
상기 화상 처리부에 의한 화상처리를 통해 얻어진 화상 데이터를 외부로 출력하기 위한 출력부를 구비하고,
상기 제2 촬상 소자로부터 상기 제1 촬상 소자의 상기 입력부에 입력된 화상 데이터에 대해 상기 화상 처리부가 화상처리를 실행하는 촬상장치.
A first image pickup element having an image pickup section having a plurality of photoelectric conversion elements,
And a second image pickup element having an image pickup section having a plurality of photoelectric conversion elements,
Wherein the first imaging device includes:
An input unit for inputting image data from outside,
An image processing unit for executing image processing on the image data input by the input unit,
And an output unit for externally outputting the image data obtained through the image processing by the image processing unit,
Wherein the image processing unit executes image processing on the image data input from the second image pickup element to the input unit of the first image pickup element.
제 16항에 있어서,
상기 제1 촬상 소자 및 상기 제2 촬상 소자를 제어하는 제어부를 더 구비한 촬상장치.
17. The method of claim 16,
And a control section for controlling the first imaging device and the second imaging device.
제 16항에 있어서,
상기 제1 촬상 소자의 상기 촬상부, 상기 입력부, 상기 화상 처리부 및 상기 출력부는 1개의 패키지로 설치된 촬상장치.
17. The method of claim 16,
And the image pickup section, the input section, the image processing section, and the output section of the first image pickup device are provided in one package.
제 16항에 있어서,
상기 촬상부에 의한 촬영의 타이밍이, 상기 촬상 소자의 외부에서 상기 입력부에 화상 데이터가 입력되는 타이밍과 다른 촬상장치.
17. The method of claim 16,
Wherein timing of photographing by the image pickup section is different from timing when image data is input from the outside of the image pickup device to the input section.
제 16항에 있어서,
상기 입력부에서 입력되는 화상 데이터는, 적어도 표시, 기록 및 분석 중 어느 한개에 사용되는 촬상장치.
17. The method of claim 16,
Wherein the image data input from the input unit is used for at least one of display, recording and analysis.
제 16항에 있어서,
상기 화상 처리부는, 상기 입력부에 입력된 화상 데이터에 대해 현상 처리를 실행하는 촬상장치.
17. The method of claim 16,
Wherein the image processing section executes development processing on the image data input to the input section.
제 16항에 있어서,
상기 화상 처리부는, 상기 제1 촬상 소자로부터 얻어진 화상 데이터에 대해 화상처리를 실행하는 촬상장치.
17. The method of claim 16,
And the image processing section executes image processing on image data obtained from the first image pickup device.
제 16항에 있어서,
상기 화상 처리부는, 상기 제1 촬상 소자의 촬상부에서 얻어진 화상 데이터와, 상기 입력부에서 입력된 화상 데이터를 합성하는 합성 처리를 행하는 촬상장치.
17. The method of claim 16,
Wherein the image processing section performs a combining process of combining image data obtained by the image pickup section of the first image pickup device and image data input from the input section.
제 16항에 있어서,
상기 제1 촬상 소자는 정지 화상을 촬영하고, 상기 제2 촬상 소자는 동화상을 촬영하는 촬상장치.
17. The method of claim 16,
Wherein the first imaging element captures a still image and the second imaging element captures a moving image.
제 16항에 있어서,
상기 제1 촬상 소자는 동화상을 촬영하고, 상기 제2 촬상 소자는 정지 화상을 촬영하는 촬상장치.
17. The method of claim 16,
Wherein the first imaging element captures a moving image and the second imaging element captures a still image.
제 16항에 있어서,
상기 제1 촬상 소자와 상기 제2 촬상 소자는, 미리 결정된 시차를 갖는 동일한 피사체를 촬영하는 촬상장치.
17. The method of claim 16,
Wherein the first imaging element and the second imaging element capture the same subject having a predetermined parallax.
제 16항에 있어서,
상기 제1 촬상 소자 및 상기 제2 촬상 소자는 서로 다른 프레임 위상을 갖는 동화상을 촬영하는 촬상장치.
17. The method of claim 16,
Wherein the first imaging element and the second imaging element capture a moving image having different frame phases.
제 16항에 있어서,
상기 제1 촬상 소자의 상기 촬상부와 상기 화상 처리부는, 적층된 서로 다른 기판 위에 구성되고, 서로 전기적으로 접속되어 있는 촬상장치.
17. The method of claim 16,
Wherein the image pickup section and the image processing section of the first image pickup device are formed on different substrates stacked and electrically connected to each other.
제 16항에 있어서,
상기 화상 데이터의 표시 처리부와,
기록 처리부를 더 구비한 촬상장치.
17. The method of claim 16,
A display processing unit of the image data,
And a recording processing unit.
KR1020160156148A 2015-11-25 2016-11-23 Image sensor and image capturing apparatus KR20170061075A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JPJP-P-2015-230028 2015-11-25
JP2015230028 2015-11-25
JP2016175882A JP6808409B2 (en) 2015-11-25 2016-09-08 Image sensor and imaging device
JPJP-P-2016-175882 2016-09-08

Publications (1)

Publication Number Publication Date
KR20170061075A true KR20170061075A (en) 2017-06-02

Family

ID=59017129

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160156148A KR20170061075A (en) 2015-11-25 2016-11-23 Image sensor and image capturing apparatus

Country Status (3)

Country Link
JP (1) JP6808409B2 (en)
KR (1) KR20170061075A (en)
CN (1) CN107046625B (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6748622B2 (en) * 2017-02-16 2020-09-02 ソニーセミコンダクタソリューションズ株式会社 Imaging system and imaging device
JP6951917B2 (en) 2017-09-15 2021-10-20 株式会社ソニー・インタラクティブエンタテインメント Imaging device
JP7039237B2 (en) * 2017-09-29 2022-03-22 キヤノン株式会社 Imaging device, imaging system, mobile body, circuit chip
CN112804467B (en) * 2021-04-15 2021-06-25 北京惠风智慧科技有限公司 Image coding method and device based on multiple CMOS sensors

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3528335B2 (en) * 1994-08-22 2004-05-17 株式会社日立製作所 Video camera system
US5815201A (en) * 1995-02-21 1998-09-29 Ricoh Company, Ltd. Method and system for reading and assembling audio and image information for transfer out of a digital camera
JP4185582B2 (en) * 1998-03-18 2008-11-26 キヤノン株式会社 Imaging device, control device, signal processing system, method and recording medium
US20070177025A1 (en) * 2006-02-01 2007-08-02 Micron Technology, Inc. Method and apparatus minimizing die area and module size for a dual-camera mobile device
JP2008153997A (en) * 2006-12-18 2008-07-03 Matsushita Electric Ind Co Ltd Solid-state imaging device, camera, vehicle, surveillance device and driving method for solid-state imaging device
JP5451052B2 (en) * 2008-12-15 2014-03-26 キヤノン株式会社 Imaging device
JP2012018621A (en) * 2010-07-09 2012-01-26 Panasonic Corp Image processing apparatus, image processing method and program
US8988558B2 (en) * 2011-04-26 2015-03-24 Omnivision Technologies, Inc. Image overlay in a mobile device
JP6016378B2 (en) * 2012-02-29 2016-10-26 キヤノン株式会社 Photoelectric conversion device and imaging system using photoelectric conversion device
CN103561213A (en) * 2013-11-14 2014-02-05 深圳市视晶无线技术有限公司 Wireless shooting management system with auxiliary camera
JP6314477B2 (en) * 2013-12-26 2018-04-25 ソニー株式会社 Electronic devices
JP6408372B2 (en) * 2014-03-31 2018-10-17 ソニーセミコンダクタソリューションズ株式会社 SOLID-STATE IMAGING DEVICE, ITS DRIVE CONTROL METHOD, AND ELECTRONIC DEVICE
US20150319390A1 (en) * 2014-04-30 2015-11-05 Sandia Corporation Stacked and tiled focal plane array

Also Published As

Publication number Publication date
JP2017103752A (en) 2017-06-08
CN107046625A (en) 2017-08-15
CN107046625B (en) 2020-08-04
JP6808409B2 (en) 2021-01-06

Similar Documents

Publication Publication Date Title
JP6780745B2 (en) Electronics
JP4448888B2 (en) Imaging apparatus and signal processing method of imaging apparatus
JP5317591B2 (en) Imaging device
JP6561428B2 (en) Electronic device, control method, and control program
CN107046625B (en) Image sensor and image pickup apparatus
EP3174286B1 (en) Image sensor and image capturing apparatus
US20240089402A1 (en) Electronic apparatus, reproduction device, reproduction method, recording medium, and recording method
JP2009049525A (en) Imaging apparatus and method for processing signal
TW200417251A (en) Solid photographing element and digital camera
JP6118058B2 (en) Solid-state imaging device, imaging apparatus, and control method
CN117135480A (en) Image sensing device
US20170318209A1 (en) Device and image processing method
JP2010062639A (en) Imaging apparatus
JP2014165778A (en) Solid state image sensor, imaging device and focus detector
US10686987B2 (en) Electronic apparatus with image capturing unit having first and second imaging regions that capture an image of a subject under differing imaging conditions
US20170318256A1 (en) Electronic apparatus, reproduction device, reproduction method, recording medium, and recording method
JP2017120971A (en) Solid state imaging device and imaging apparatus
US20170324911A1 (en) Electronic apparatus, reproduction device, reproduction method, recording medium, and recording method
JP2017194656A (en) Image capturing device, control method therefor, program, and storage medium
JP2008270832A (en) Solid-state imaging element and imaging apparatus
JP2005303653A (en) Image pickup device
JP2006340100A (en) Photographic device
JP2005012403A (en) Digital camera and picture information acquisition method
WO2020203799A1 (en) Imaging element and imaging device
JP5726244B2 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
X601 Decision of rejection after re-examination