KR20170061075A - Image sensor and image capturing apparatus - Google Patents
Image sensor and image capturing apparatus Download PDFInfo
- Publication number
- KR20170061075A KR20170061075A KR1020160156148A KR20160156148A KR20170061075A KR 20170061075 A KR20170061075 A KR 20170061075A KR 1020160156148 A KR1020160156148 A KR 1020160156148A KR 20160156148 A KR20160156148 A KR 20160156148A KR 20170061075 A KR20170061075 A KR 20170061075A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- section
- unit
- image data
- input
- Prior art date
Links
- 238000012545 processing Methods 0.000 claims abstract description 267
- 238000006243 chemical reaction Methods 0.000 claims abstract description 39
- 238000003384 imaging method Methods 0.000 claims description 103
- 238000000034 method Methods 0.000 claims description 68
- 230000008569 process Effects 0.000 claims description 37
- 239000000758 substrate Substances 0.000 claims description 36
- 238000011161 development Methods 0.000 claims description 24
- 238000004458 analytical method Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 description 23
- 230000003321 amplification Effects 0.000 description 21
- 238000003199 nucleic acid amplification method Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 16
- 230000003287 optical effect Effects 0.000 description 15
- 238000009825 accumulation Methods 0.000 description 12
- 230000015572 biosynthetic process Effects 0.000 description 11
- 230000002950 deficient Effects 0.000 description 10
- 238000003786 synthesis reaction Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000003702 image correction Methods 0.000 description 5
- 238000003705 background correction Methods 0.000 description 4
- 230000005611 electricity Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000000149 penetrating effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010030 laminating Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000005375 photometry Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
- H04N25/53—Control of the integration time
-
- H04N5/353—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/71—Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
- H04N25/75—Circuitry for providing, modifying or processing image signals from the pixel array
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
- H04N25/77—Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
- H04N25/77—Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
- H04N25/772—Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising A/D, V/T, V/F, I/T or I/F converters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- H04N5/3355—
-
- H04N5/3745—
-
- H04N5/378—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Power Engineering (AREA)
- General Physics & Mathematics (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Electromagnetism (AREA)
- Computer Hardware Design (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Studio Devices (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Solid State Image Pick-Up Elements (AREA)
Abstract
복수의 광전 변환소자를 포함하는 촬상부를 구비한 촬상 소자는, 촬상 소자의 외부에서 화상 데이터가 입력되는 입력부와, 촬상부에서 얻어진 화상 데이터 및 입력부에서 입력된 화상 데이터에 대해 화상처리를 실행하는 화상 처리부와, 화상 처리부에 의한 화상처리를 통해 얻어진 화상 데이터를, 외부로 출력하기 위한 출력부를 구비한다. An image pickup device including an image pickup unit including a plurality of photoelectric conversion elements includes an input unit for inputting image data from the outside of the image pickup device and an image processing unit for performing image processing on image data obtained by the image pickup unit and image data input from the input unit And an output unit for externally outputting the image data obtained through the image processing by the image processing unit.
Description
본 발명은 촬상 소자 및 촬상장치에 관한 것이다. The present invention relates to an image pickup device and an image pickup apparatus.
최근, 디지털 스틸 카메라와 디지털 비디오 카메라 등의 촬상장치에 사용되는 촬상 소자의 다기능화가 진행하고 있다. 촬상 소자의 다기능화를 달성하는 수단으로서, 빛을 전기로 변환하는 광전 변환소자를 갖는 화소부로 구성되어 있는 촬상부와, 촬상부에서 출력되는 촬상신호에 대해 화상처리를 행하기 위한 화상 처리부를 구비한 촬상 소자가 제안되어 있다. 2. Description of the Related Art In recent years, an imaging device used in an imaging device such as a digital still camera and a digital video camera has been made more multifunctional. As means for achieving the multifunctional function of the image pickup element, there is provided an image pickup section constituted by a pixel section having a photoelectric conversion element for converting light into electricity, and an image processing section for performing image processing on the image pickup signal output from the image pickup section An image pickup device has been proposed.
일본국 특개 2006-49361호 공보에서는, 촬상 소자 칩을 신호 처리 칩 위에 적층하여 제조된 촬상 소자에 관한 기술이 개시되어 있다. Japanese Patent Application Laid-Open No. 2006-49361 discloses a technique relating to an image pickup device manufactured by laminating an image pickup device chip on a signal processing chip.
일본국 특개 2006-49361호 공보에 기재된 촬상 소자의 신호 처리 칩은, 이 반도체 모듈 중에 포함된 촬상 소자 칩으로부터의 출력에 대해 신호 처리를 실행하기 위해 설치되어 있는 것이다. 그 때문에, 촬상 소자로부터 출력된 화상 데이터에 대해 각종 화상처리를 다시 실행하기 위해서는, 촬상 소자 외부에 별도의 화상처리 칩을 설치할 필요가 있어, 여분의 구성요소가 필요하게 된다. The signal processing chip of the image pickup device disclosed in Japanese Patent Application Laid-Open No. 2006-49361 is provided for performing signal processing on the output from the image pickup device chip included in the semiconductor module. Therefore, in order to execute various image processes again on the image data output from the image pickup device, it is necessary to provide a separate image processing chip outside the image pickup device, and an extra component is required.
본 발명은, 상기 문제점을 감안해서 이루어진 것으로서, 촬상 소자의 외부에서의 화상 데이터를 입력을 통해 촬상 소자의 내부에서 화상처리할 수 있도록 한다. SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to enable image processing in the imaging device through inputting image data from the outside of the imaging device.
본 발명에 따르면, 복수의 광전 변환소자를 포함하는 촬상부를 구비한 촬상 소자로서, 상기 촬상 소자의 외부에서 화상 데이터가 입력되는 입력부와, 상기 촬상부에서 얻어진 화상 데이터 및 상기 입력부에서 입력된 화상 데이터에 대해 화상처리를 실행하는 화상 처리부와, 상기 화상 처리부에 의한 화상처리를 통해 얻어진 화상 데이터를, 외부로 출력하기 위한 출력부를 구비한 촬상 소자가 제공된다. According to the present invention, there is provided an image pickup device comprising an image pickup unit including a plurality of photoelectric conversion elements, the image pickup apparatus comprising: an input unit for inputting image data from outside the image pickup device; image data obtained by the image pickup unit; And an output unit for outputting image data obtained through image processing by the image processing unit to the outside.
더구나, 본 발명에 따르면, 복수의 광전 변환소자를 포함하는 촬상부를 구비한 촬상 소자로서, 상기 촬상 소자의 외부에서 화상 데이터가 입력되는 입력부와, 상기 촬상부에서 얻어진 화상 데이터 및 상기 입력부에서 입력된 화상 데이터에 대해 화상처리를 실행하는 화상 처리부와, 상기 화상 처리부에 의한 화상처리를 통해 얻어진 화상 데이터를, 외부로 출력하기 위한 출력부를 구비한 촬상 소자와, 상기 촬상 소자로부터 출력된 화상 데이터의 표시 처리부와, 기록 처리부를 구비한 촬상장치가 제공된다. Furthermore, according to the present invention, there is provided an image pickup device comprising an image pickup section including a plurality of photoelectric conversion elements, the image pickup device comprising: an input section for inputting image data from outside the image pickup device; image data obtained by the image pickup section; An image processing apparatus comprising: an image processing unit for executing image processing on image data; an image pickup element having an output unit for outputting image data obtained through image processing by the image processing unit to the outside; There is provided an image pickup apparatus having a processing section and a recording processing section.
더구나, 본 발명에 따르면, 복수의 광전 변환소자를 갖는 촬상부를 구비한 제1 촬상 소자와, 복수의 광전 변환소자를 갖는 촬상부를 구비한 제2 촬상 소자를 구비하고, 상기 제1 촬상 소자는, 외부에서 화상 데이터가 입력되는 입력부와, 상기 입력부에서 입력된 화상 데이터에 대해 화상처리를 실행하는 화상 처리부와, 상기 화상 처리부에 의한 화상처리를 통해 얻어진 화상 데이터를 외부로 출력하기 위한 출력부를 구비하고, 상기 제2 촬상 소자로부터 상기 제1 촬상 소자의 상기 입력부에 입력된 화상 데이터에 대해 상기 화상 처리부가 화상처리를 실행하는 촬상장치가 제공된다. Furthermore, according to the present invention, there is provided a photoelectric conversion device comprising a first image pickup device having an image pickup section having a plurality of photoelectric conversion elements, and a second image pickup device having an image pickup section having a plurality of photoelectric conversion elements, An image processing section for executing image processing on image data input from the input section; and an output section for outputting image data obtained through image processing by the image processing section to the outside And the image processing section performs image processing on the image data input from the second image pickup element to the input section of the first image pickup device.
본 발명의 또 다른 특징은 (첨부도면을 참조하여 주어지는) 이하의 실시형태의 상세한 설명으로부터 명백해질 것이다. Further features of the present invention will become apparent from the following detailed description of the embodiments (given with reference to the accompanying drawings).
명세서에 포함되고 명세서의 일부를 구성하는 다음의 첨부도면은, 본 발명의 예시적인 실시형태, 특징 및 국면을 예시하며, 상세한 설명과 함께, 본 발명의 원리를 설명하는 역할을 한다.
도 1은 본 발명의 제1 실시형태에 따른 촬상 소자의 구성을 나타낸 블록도이다.
도 2는 제1 실시형태에 따른 촬상 소자의 화상 처리부의 구성을 나타낸 블록도이다.
도 3은 제1 실시형태에 따른 촬상장치의 개략 구성을 나타낸 블록도이다.
도 4는 제1 실시형태에 따른 통상 촬영시 실행되는 처리를 나타낸 흐름도이다.
도 5는 제1 실시형태에서 화상 입력시 실행되는 처리를 나타낸 흐름도이다.
도 6은 제1 실시형태에 따른 촬영 화상과 입력 화상에 대한 화상 합성처리를 나타낸 흐름도이다.
도 7은 제2 실시형태에 따른 촬상장치의 개략 구성을 나타낸 블록도이다.
도 8은 제2 실시형태에 따른 제2 촬상 소자의 구성을 나타낸 블록도이다.
도 9는 제2 실시형태에 따른 제2 촬상 소자에 의해 촬영한 화상에 대해 제1 촬상 소자가 화상처리를 실행할 때 실행되는 촬영 처리를 나타낸 흐름도이다.
도 10은 제2 실시형태에 따라 제1 촬상 소자가 동화상을 촬영하고, 제2 촬상 소자가 정지 화상을 촬영할 때 실행되는 촬영 처리를 나타낸 흐름도이다.
도 11은 제2 실시형태에 따라 제1 및 제2 촬상 소자가 정지 화상을 촬영해서 촬영된 정지 화상이 합성될 때 실행되는 촬영 처리를 나타낸 흐름도이다.
도 12는 제2 실시형태에 따라 제1 및 제2 촬상 소자가 동화상을 촬영해서 촬영된 동화상이 합성될 때 실행되는 촬영 처리를 나타낸 흐름도이다.
도 13은 제2 실시형태에 따라 제2촬상 소자가 제1 촬상 소자에 의해 행해진 촬영의 보조 수단으로서 사용될 때 실행되는 촬영 처리를 나타낸 흐름도이다.
도 14는 제3 실시형태에 따른 촬상 소자의 구성을 나타낸 블록도이다.
도 15는 제3 실시형태에 따른 촬상 소자의 제1 기판의 개략 구성을 나타낸 블록도이다.
도 16은 제3 실시형태에 따른 촬상 소자의 화상 처리부의 구성을 나타낸 블록도이다.The accompanying drawings, which are incorporated in and form a part of the specification, illustrate exemplary embodiments, features and aspects of the invention and, together with the description, serve to explain the principles of the invention.
1 is a block diagram showing the configuration of an image pickup device according to a first embodiment of the present invention.
2 is a block diagram showing a configuration of an image processing section of an image pickup device according to the first embodiment.
3 is a block diagram showing a schematic configuration of an image pickup apparatus according to the first embodiment.
Fig. 4 is a flowchart showing a process executed at the time of normal photographing according to the first embodiment.
5 is a flowchart showing a process executed when an image is input in the first embodiment.
Fig. 6 is a flowchart showing image composition processing for a captured image and an input image according to the first embodiment.
7 is a block diagram showing a schematic configuration of an image pickup apparatus according to the second embodiment.
8 is a block diagram showing a configuration of a second image pickup device according to the second embodiment.
Fig. 9 is a flowchart showing an image capturing process executed when the first image capturing device performs image processing on an image captured by the second image capturing device according to the second embodiment. Fig.
10 is a flowchart showing an imaging process performed when the first imaging device captures a moving image and the second imaging device captures a still image according to the second embodiment.
Fig. 11 is a flowchart showing an image capturing process executed when the first and second image capturing devices capture a still image and a captured still image is synthesized according to the second embodiment. Fig.
Fig. 12 is a flowchart showing an image capturing process executed when first and second image capturing devices capture a moving image and a captured moving image is synthesized according to the second embodiment. Fig.
Fig. 13 is a flowchart showing an image capturing process executed when the second image capturing device is used as an auxiliary means for capturing by the first image capturing device according to the second embodiment. Fig.
14 is a block diagram showing a configuration of an image pickup device according to the third embodiment.
15 is a block diagram showing a schematic configuration of a first substrate of an image pickup device according to the third embodiment.
16 is a block diagram showing a configuration of an image processing section of an image pickup device according to the third embodiment.
이하, 첨부도면을 참조하여 본 발명의 실시형태를 더욱 상세히 설명한다. 본 실시형태들에서 나타낸 구성요소들의 치수, 형성 및 상대적인 위치는 다양한 상황 및 본 발명에 맞추어 변형된 장치의 구조에 따라 적절히 변경되며, 본 발명은 이들 실시형태들에 한정되는 것은 아니다. Hereinafter, embodiments of the present invention will be described in more detail with reference to the accompanying drawings. The dimensions, the formation and the relative positions of the components shown in these embodiments are appropriately changed according to various situations and the structure of the apparatus modified in accordance with the present invention, and the present invention is not limited to these embodiments.
<제1 실시형태>≪ First Embodiment >
우선, 본 발명의 제1 실시형태에 따른 촬상 소자에 대해 설명한다. 제1 실시형태에 따른 촬상 소자는, 촬상 소자의 외부에서 입력된 화상신호를 수신하고, 입력한 화상신호에 대해 촬상 소자 내부에서 화상처리를 실행하는 기능을 갖는다. First, an image pickup device according to a first embodiment of the present invention will be described. The image pickup device according to the first embodiment has a function of receiving an image signal input from the outside of the image pickup device and executing image processing in the image pickup device with respect to the input image signal.
이하, 도 1 및 도 2를 참조하여, 제1 실시형태에 따른 촬상 소자의 구성에 대해 상세하게 설명한다. 도 1은, 본 발명의 제1 실시형태에 따른 촬상 소자의 구성을 나타낸 블록도다. Hereinafter, the configuration of the image pickup device according to the first embodiment will be described in detail with reference to Figs. 1 and 2. Fig. 1 is a block diagram showing the configuration of an image pickup device according to a first embodiment of the present invention.
도 1에 있어서, 촬상 소자(302)는, 제1 기판(101)(촬상부)과 제2 기판(102)(처리부)이 적층된 구조를 갖는다. 제1 기판(101)과 제2 기판(102)은, 제1 기판(101) 내부에 포함된 접속부(106)와 제2 기판(102) 내부에 포함된 접속부(107) 사이에서, 마이크로 범프나 비아 등에 의해 접합되어, 그들 사이에서 전기적인 접속을 확립한다. 미도시이지만, 제1 기판(101) 내부에 포함된 제어회로(103)와 제2 기판(102) 내부에 포함된 화상 처리부(108)도, 통신 가능하게 전기적으로 접속되어 있다.
1, the
제1 기판(101)은, 수광부(104), 아날로그/디지털(AD) 변환부(105), 접속부(106) 및 제어회로(103)를 구비한다. 수광부(104)에는, 빛을 전기로 변환하는 광전 변환소자를 포함하는 복수의 화소가 행 방향 및 열 방향으로 2차원으로 배치되어 있다. AD 변환부(105)는, 수광부(104)의 화소에 의해 생성된 아날로그 화상신호를 디지털 신호로 변환하고, 접속부(106)는, AD 변환부(105)로부터 출력된 디지털 화상신호(화상 데이터)를 제2 기판(102)에 전송한다. 제어회로(103)는, 수광부(104) 및 AD 변환부(105)에 있어서의 각종 구동을 제어한다.
The
제2 기판(102)은, 접속부(107), 화상 처리부(108), 메모리부(109)와, 출력부(111) 및 입력부(112)를 포함하는 인터페이스부(110)를 구비한다. 접속부(107)는, 제1 기판(101)으로부터 전송되는 화상신호를 수신한다. 화상 처리부(108)는, 제1 기판(101), 메모리부(109) 및 입력부(112)로부터 전송되는 디지털 화상신호(화상 데이터)에 대하여, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 현상 처리 등의 각종 화상처리를 실행한다. 또한, 상기한 각종 화상처리를 실행하는 기능 이외에, 화상 처리부(108)는, 촬영을 통해 얻어진 디지털 화상신호(화상 데이터)와 입력부(112)로부터 전송되는 디지털 화상신호(화상 데이터)를 사용하여, 차분 화상, 가산 화상, 평균 화상 등의 각종 합성 화상을 생성하는 기능과, 복수의 화상 데이터를 결합해서 동화상을 생성하는 기능을 갖는다. 더구나, 화상 처리부(108)은, 입력부(112)로부터 전송되는 화상 데이터를 기초로, 예를 들어, 피사체의 휘도값을 산출하는 기능을 갖는다. 화상 처리부(108)의 구성에 대해서는 도 2를 참조하여 상세하게 후술한다.
The
메모리부(109)는, 화상 처리부(108)와 입력부(112)로부터의 화상 데이터를 일시적으로 격납한다. 입력부(112)는, 촬상 소자(302)의 외부에서 입력된 화상 데이터를 수신하고, 화상 처리부(108)와 메모리부(109)에 화상 데이터를 전송하는 한편, 출력부(111)는, 화상 처리부(108)로부터 출력된 화상 데이터를 촬상 소자(302)의 외부로 출력한다. 제1 실시형태에 있어서는, 화상 데이터를 인터페이스부(110)로부터 촬상 소자(302)의 외부로 출력하고, 화상 데이터를 촬상 소자(302)의 외부에서 인터페이스부(110)에 입력하기 위해 공통의 단자를 사용하는 것으로 가정한다. 인터페이스부(110) 내부에 있어서, 화상 데이터 입력시에는 인터페이스부(110)의 단자는 입력부(112)에 접속되고, 화상 데이터 출력시는 인터페이스부(110)의 단자는 출력부(111)에 접속된다. 촬상 소자(302)에 있어서, 제1 기판(101)(촬상부)과 제2 기판(102)(처리부)과 그것들에 포함되는 각 구성요소가 1개의 패키지를 구성한다.
The
도 2는, 제1 실시형태에 따른 촬상 소자(302)의 화상 처리부(108)의 구성을 나타낸 블록도다. 도 2에 있어서, 신호 증폭부(201)는, 입력된 디지털 화상신호(화상 데이터)를 소정의 게인으로 증폭한다. 기준 레벨 조정부(202)는, 수광부(104)에 빛이 입사하지 않는 다크 상태에서 디지털 화상신호(화상 데이터)의 신호 레벨이 소정의 값을 갖도록 조정한다. 보정부(203)는, 화상 데이터에 대하여, 결함 화소 보정처리와 다크 셰이딩 보정처리 등의 각종 보정처리를 실행한다.
2 is a block diagram showing a configuration of the
현상 처리부(204)는, 화상 데이터에 대해 화이트 밸런스 조정 등을 실행한 후, 화상 데이터에 대해 현상 처리를 행한다. 화상 합성부(205)는, 수광부(104)에 의해 행해진 촬영을 통해 얻어지고 AD 변환부(105)에서 판독된 화상 데이터와 입력부(112)와 메모리부(109)로부터 전송된 화상 데이터를 사용하여, 차분 화상, 가산 화상, 평균 화상 등의 각종 합성 화상을 생성한다.
The
신호 해석부(206)는, 입력부(112)와 메모리부(109)로부터 전송된 화상 데이터를 해석하고, 그 해석 결과를 기초로, 신호 증폭부(201)에 의해 사용된 신호 증폭률을 설정하고, 제어회로(103)를 거쳐 수광부(104) 및 AD 변환부(105)에 있어서의 각종 구동설정을 행한다.
The
도 3은, 상기한 방식으로 구성된 촬상 소자(302)를 구비한 촬상장치의 개략 구성을 나타낸 블록도다. 도 3에 있어서, 렌즈 및 조리개 등을 포함하는 광학계(301)는 구동회로(304)에 의해 구동되고, 광학계(301)를 거쳐 입사한 입사광을 촬상 소자(302)가 전기신호로 변환한다. 타이밍 신호 발생회로(303)는 촬상 소자(302)를 동작시키는 신호를 발생한다. 본 실시형태에 있어서, 타이밍 신호 발생회로(303)에 의해 발생된 신호에는 수직 및 수평 동기신호, 촬상 소자(302) 내부의 각종 설정 파라미터를 설정하기 위한 설정용 신호 등이 포함된다.
3 is a block diagram showing a schematic configuration of an image pickup apparatus provided with an
도 1을 참조해서 설명한 것과 같이, 촬상 소자(302)는, 입사광을 변환하여 얻어진 전기신호에 대하여, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 다크 셰이딩 보정처리, 현상 처리 등의 각종 화상처리를 실행하여, 화상신호를 생성하는 기능을 갖는다. 또한, 촬상 소자(302)는, 기록 회로(305)에서 입력된 화상 데이터를 수신하고, 각종 화상처리를 실행하는 기능도 갖는다. 기록 회로(305)는, 촬상 소자(302)로부터 출력된 화상 데이터와, 촬상 소자(302)에 입력된 화상 데이터 등을 기록 및 유지하는 불휘발성 메모리, 메모리 카드, 또는 이와 유사한 기록매체이다.
As described with reference to Fig. 1, the
제어회로(306)는 촬상 소자(302), 타이밍 신호 발생회로(303) 및 구동회로(304)를 포함하는 촬상장치 전체를 총괄적으로 구동 및 제어한다. 조작 회로(307)는 촬상장치에 구비된 조작부재로부터의 신호를 접수하고, 제어회로(306)에 대해 유저로부터의 명령을 반영하게 한다. 표시 회로(308)는 촬영된 화상, 라이브 뷰 화상, 각종 설정 화면 등을 표시한다.
The
본 실시형태에서는, 촬상장치의 타이밍 신호 발생회로(303)와 제어회로(306)가 촬상 소자(302)와 독립하여 설치되는 구성 예에 대해 소개하였다. 그렇지만, 본 발명은 이러한 구성에 한정되는 것은 아니고, 타이밍 신호 발생회로(303)와 제어회로(306)의 적어도 일부의 기능을 촬상 소자(302)에 내장해도 된다.
In the present embodiment, a configuration example in which the timing
도 4 내지 도 6을 참조하여, 제1 실시형태에 있어서 촬상 소자(302)를 갖는 촬상장치에 의해 행해지는 각종 촬영 처리 및 화상 생성처리에 대해 상세하게 설명한다.
Various shooting processing and image generation processing performed by the imaging apparatus having the
도 4는, 제1 실시형태에서 통상 촬영시 실행되는 처리를 나타낸 흐름도다. 도 4에 있어서, 우선, 조작 회로(307)를 거쳐 유저에 의해 내려진 지시 등에 따라, 감광 속도, 조리개 값, 노광 시간 등의 촬영 조건의 초기 설정이 구성된다(스텝 S401). 이어서, 광학계(301) 등을 제어하여, 촬상 소자(302)의 수광부(104)의 노광을 행한다(스텝 S402). 소정의 축적 시간의 경과후, AD 변환부(105)가 수광부(104)에 의해 생성된 전기신호를 디지털 화상신호(화상 데이터)로 변환한 후, 화상 처리부(108)에 판독한다(스텝 S403).
Fig. 4 is a flowchart showing the processing executed in the normal photographing in the first embodiment. In Fig. 4, first, initial settings of photographing conditions such as a photoconductive rate, a diaphragm value, and an exposure time are configured by an instruction given by the user via the operation circuit 307 (step S401). Subsequently, the
이어서, 화상 처리부(108)에 입력된 화상 데이터에 대하여, 신호 증폭부(201), 기준 레벨 조정부(202), 보정부(203) 및 현상 처리부(204)가, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S404). 최후에, 화상 처리부(108)로부터 출력된 화상 데이터를 출력부(111)로부터 촬상 소자(302)의 외부의 기록 회로(305) 혹은 표시 회로(308)에 출력하고(스텝 S405), 본 촬영 처리를 종료한다.
Next, the
도 5는, 제1 실시형태에 있어서 화상 입력시에 실행되는 처리를 나타낸 흐름도다. 도 5를 참조하여 설명하는 화상 입력시 실행되는 처리는, 예를 들면, 과거에 촬상장치에 의해 행해진 촬영을 통해 얻어져 외부에서 보존되어 있었던 RAW 화상 데이터를 촬상장치 내에 포함된 촬상 소자(302)를 사용해서 원하는 현상 파라미터에 근거하여 재현상할 때 이용할 수 있다. Fig. 5 is a flowchart showing a process executed at the time of image input in the first embodiment. The processing executed at the time of image input explained with reference to Fig. 5 can be realized by, for example, acquiring RAW image data obtained through photographing performed in the past by the image capturing apparatus and stored in the outside, Can be used for re-developing based on desired developing parameters.
촬상 소자(302)의 외부에서 입력되는 화상 데이터가 화상 처리부(108)에서 각종 화상처리가 실행되어 출력부(111)로부터 출력된 후, 기록 회로(305)로서의 역할을 하는 불휘발성 메모리, 메모리 카드, 또는 이와 유사한 기록매체에 대한 기록과, 표시 회로(308)에 의해 행해진 화상의 표시에 이 화상 데이터가 사용된다. 이 화상 데이터는 각종 연구와 해석에 사용해도 된다. 예를 들면, 감시 카메라의 분야에서 인물 인식과 얼굴 인식에 화상 데이터를 사용해도 된다. 또한, 자동차 등의 자동 운전을 위한 차량 탑재 카메라 분야에서 보행자의 검출과, 표지, 백선, 도로 상의 장해물 및 자전거를 포함하는 물체 인식과, 문자 인식 등에 화상 데이터를 사용해도 된다. 이때, 신호 처리는 입력된 화상의 모든 영역에 실행할 필요는 없고, 피사체 인식 등의 결과에 근거하여 입력된 화상의 한정된 영역에 실행해도 된다. 또한, 입력부(112) 등에 의해 필요한 영역만 잘라내도 된다.
A nonvolatile memory serving as the
도 5에 있어서, 우선, 기록 회로(305)에 보존되어 있는 RAW 화상 데이터를 입력부(112)를 거쳐 촬상 소자(302)에 입력한다(스텝 S501). 이어서, 촬상 소자(302)에 입력된 화상 데이터에 대하여, 화상 처리부(108)의 현상 처리부(204)가, 조작 회로(307)를 거쳐 유저에 의해 내려진 지시 등에 따라, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S502). 이때, 화상처리가 실행되는 입력 화상 데이터는, 촬영시에 화상 처리부(108)의 신호 증폭부(201), 기준 레벨 조정부(202) 및 보정부(203)에 있어서 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 다크 셰이딩 보정처리 등이 실행된 것으로 가정한다. 이들 화상처리후에 화상 데이터가 촬상 소자(302)로부터 출력되어 기록 회로(305)에서 보관되어 있었을 경우, 재차, 촬상 소자(302)에 화상 데이터를 입력하였을 때에는, 이와 같은 화상처리를 생략할 수 있다.
5, RAW image data stored in the
최후에, 각종 화상처리가 실행된 후 화상 처리부(108)로부터 출력된 화상 데이터를, 출력부(111)로부터 촬상 소자(302)의 외부의 기록 회로(305) 혹은 표시 회로(308)에 출력한 후(스텝 S503), 본 처리를 종료한다.
The image data output from the
이때, 도 4의 흐름도를 참조하여 설명한 처리, 즉 촬영처리 및 촬영 화상 데이터에 대한 화상 처리부(108)에 의해 실행된 화상처리의 타이밍과, 도 5의 흐름도를 참조하여 설명한 화상 처리, 즉 입력 화상 데이터에 대한 화상 처리부(108)에 의해 실행된 화상처리의 타이밍은 다른 것이 바람직하다. 화상 처리부(108)가 촬영 화상 데이터의 화상처리와 입력 화상 데이터의 화상처리를 동시에 실행하지 않고 분산시킴으로써, 화상 처리부(108)의 처리부하를 경감할 수 있는 동시에, 최대 소비 전력량을 억제할 수 있다.
At this time, the processing described with reference to the flowchart of Fig. 4, that is, the timing of the image processing executed by the
도 6은, 제1 실시형태에 있어서 촬영 화상과 입력 화상에 대한 화상 합성처리를 나타낸 흐름도다. 도 6을 참조하여 설명하는, 촬영 화상과 입력 화상의 화상 합성처리는, 예를 들면, 과거에 촬영해서 촬상 소자(302)의 외부에 보존하고 있었던 화상과 촬상 소자(302)에 의해 새롭게 촬상한 화상을 합성하는 경우 등에 이용할 수 있다.
Fig. 6 is a flowchart showing image synthesis processing for a captured image and an input image in the first embodiment. The image synthesis processing of the captured image and the input image, which will be described with reference to Fig. 6, can be performed, for example, in the case where an image captured in the past and stored outside the
도 6에 있어서, 우선, 조작 회로(307)를 거쳐 유저에 의해 내려진 지시 등에 따라, 감광 속도, 조리개 값, 노광 시간 등의 촬영 조건의 초기 설정이 구성된다(스텝 S601). 이어서, 기록 회로(305)에 보존되어 있는 화상 데이터를 입력부(112)를 거쳐 촬상 소자(302) 내부에 입력한 후, 메모리부(109)에서 보관한다(스텝 S602). 입력 화상 데이터는, 이후에 촬영되어 화상 처리부(108)에 판독되는 촬영 화상 데이터와 함께 합성 처리를 행하기 때문에, 촬영 화상 데이터와 같은 상태에 입력 화상 데이터가 있을 필요가 있다.
In Fig. 6, an initial setting of photographing conditions such as a photographic speed, a diaphragm value, and an exposure time is first made by an instruction given by the user via the operation circuit 307 (step S601). Subsequently, the image data stored in the
구체적으로는, 화상 처리부(108)에 판독되는 합성전의 촬영 화상 데이터는, 압축처리 등이 행해지고 있지 않은 RAW 화상 데이터이기 때문에, 입력 화상 데이터도 같은 상태에 있을 필요가 있다. 또한, 촬영 화상 데이터와 입력 화상 데이터는, 촬영 화상 데이터에 대하여, 화상 처리부(108)의 신호 증폭부(201), 기준 레벨 조정부(202) 및 보정부(203)가 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 다크 셰이딩 보정처리 등을 실행한 후에 함께 합성된다. 그 때문에, 입력 화상 데이터가 유사한 처리가 촬영시에 실행된 후 출력되어 보관되어 있었던 것이 바람직하다.
Concretely, since the photographed image data before synthesis which is read into the
그후, 광학계(301) 등을 제어하여, 촬상 소자(302)의 수광부(104)의 노광을 행한다(스텝 S603). 소정의 축적 시간의 경과후, AD 변환부(105)가 수광부(104)에 의해 생성된 전기신호를 디지털 화상신호로 변환한 후, 촬영 화상 데이터로서 화상 처리부(108)에 판독된다(스텝 S604).
Thereafter, the
이어서, 화상 처리부(108)의 화상 합성부(205)가, 촬영 화상 데이터와, 메모리부(109)에 보관된 입력 화상 데이터를 합성한다(스텝 S605). 이때, 축적 시간이나 감광 속도 설정 등의 입력 화상 데이터의 촬영 조건을 촬영 화상 데이터의 촬영 조건과 맞추기 위해, 적절한 게인을 사용하여 입력 화상 데이터를 증폭하는 처리가 동시에 실행된다.
Subsequently, the
그리고, 합성된 화상 데이터에 대하여, 화상 처리부(108)의 현상 처리부(204)가, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S606). 최후에, 화상 처리부(108)로부터 출력된 화상 데이터를 출력부(111)로부터 촬상 소자(302)의 외부의 기록 회로(305) 혹은 표시 회로(308)에 출력한 후(스텝 S607), 본 처리를 종료한다.
Then, the
상기한 것과 같이, 제1 실시형태에 따르면, 촬상 소자가 입력 화상 데이터를 수신하는 입력부를 구비하고, 촬상 소자 내부에 포함된 화상 처리부가 입력한 화상 데이터에 대해 다양한 화상처리를 실행할 수 있다. 이에 따라, 촬상 소자로부터 출력된 화상의 재현상과, 과거에 촬영해 보관해 둔 화상과, 새롭게 촬영한 화상의 화상 합성 등의 복수의 화상을 사용한 처리를, 외부의 화상 처리회로를 사용하지 않고 행할 수 있다. As described above, according to the first embodiment, the image pickup device is provided with the input section for receiving the input image data, and various image processes can be performed on the image data input by the image processing section included in the image pickup device. This makes it possible to perform processing using a plurality of images such as image re-development output from the image pickup element, images captured and stored in the past, and images synthesized with newly captured images without using an external image processing circuit .
이상, 도 1 내지 도 6을 참조해서 제1 실시형태에 따른 촬상장치에 대해 설명해 왔지만, 본 발명은 이것에 한정되지 않고, 다양한 형태를 취하는 것이 가능하다. The imaging apparatus according to the first embodiment has been described above with reference to Figs. 1 to 6. However, the present invention is not limited to this and can take various forms.
예를 들면, 도 5 및 도 6을 참조하여 설명한 화상 입력시에 실행된 처리에 있어서는, 입력하는 화상 데이터로서, 본 촬상장치에 의해 촬영된 화상을 사용한다. 그렇지만, 본 발명은 이것에 한정되는 것은 아니고, 다른 촬상장치에 의해 촬영되어 출력된 화상을 입력할 수 있다. For example, in the processing executed at the time of image input described with reference to Figs. 5 and 6, an image photographed by the image pickup apparatus is used as input image data. However, the present invention is not limited to this, and an image photographed and output by another imaging device can be input.
도 6을 참조하여 설명한 촬영 화상과 입력 화상에 대한 화상 합성처리에 있어서는, 화상 합성처리의 일례로서, 촬영 화상 데이터와 입력 화상 데이터로부터 단순한 합성 화상을 생성한다. 그렇지만, 본 발명은 이것에 한정되는 것은 아니고, 예를 들면, 하이 다이나믹 레인지 합성 처리(HDR 합성 처리)에서와 같이, 촬영 화데이터와 입력 화상 데이터 각각을 소정의 게인을 사용하여 증폭한 후 합성 화상을 생성하는 처리를 실행해도 된다. In the image combining process for the captured image and the input image described with reference to Fig. 6, a simple combined image is generated from the captured image data and the input image data as an example of the image combining process. However, the present invention is not limited to this. For example, as in the high dynamic range synthesis processing (HDR synthesis processing), the photographed data and the input image data are amplified using a predetermined gain, May be executed.
이때, 입력 화상의 촬영 조건과 촬영 화상의 촬영 조건의 차이는, 입력 화상 데이터를 적절한 게인을 사용하여 증폭하는 처리를 행함으로써 조절하는 것에 한정되지 않고, 예를 들면, 다른 촬영 조건을 갖는 입력 화상 데이터를 복수 종류 입력해서 메모리부(109)에 격납해 두고, 촬영이 행해질 때마다, 촬영시 사용된 촬영 조건에 따라 적절한 입력 화상 데이터를 선택해서 사용해도 된다. 또한, 랜덤 노이즈 저감을 위해, 촬영 화상 데이터 및 입력 화상 데이터에 대한 평균 화상 데이터를 생성하는 처리를 실시해도 된다.
The difference between the photographing conditions of the input image and the photographing conditions of the photographing image is not limited to adjusting the input image data by performing the process of amplifying the input image data by using an appropriate gain. For example, A plurality of types of data may be input and stored in the
예를 들면, 촬영 화상과 입력 화상에 대한 화상 합성처리에 있어서는, 촬영 화상 데이터와 입력 화상 데이터의 차분을 표시하는 차분 화상을 생성해도 된다. 예를 들면, 차량 탑재 카메라 등에 이 방법을 적용할 때, 2개의 화상의 차분을 취하는 것에 의해, 도로상의 장해물, 자전거 및 보행자를 검출해도 된다. 이 방법은, 촬상 소자(302)에 의해 행해진 촬영을 통해 얻어진 화상 데이터에 대하여, 과거에 촬영을 통해 얻어지고 촬상 소자(302)의 외부에 보존하고 있었던 흑(black) 화상 데이터를 사용하여, 촬상 소자(302)의 화상 처리부(108)가 흑 추출 처리를 행하는 경우 등에 이용할 수도 있다. 예를 들면, 천체 촬영시의 흑 추출 처리의 경우, 촬영 화상 데이터인 천체 촬영 화상에서 입력 화상 데이터인 흑 화상을 감산하여 차분 화상을 생성할 수 있다.
For example, in the image synthesis processing for the captured image and the input image, a difference image representing the difference between the captured image data and the input image data may be generated. For example, when applying this method to a vehicle-mounted camera or the like, an obstacle on the road, a bicycle, and a pedestrian may be detected by taking a difference between the two images. This method is a method in which black image data obtained through photographing in the past and stored outside the
전술한 설명에서는 차분 화상을 생성하기 위해 1종류의 1매에 속하는 화상신호를 입력하지만, 이것에 한정되는 것은 아니다. 예를 들면, 복수의 다른 촬영 조건을 사용한 흑 화상 데이터를 입력해서 메모리부(109)에 격납해 두고, 촬영이 행해질 때마다, 촬영시 사용된 촬영 조건에 따라 적절한 흑 화상 데이터를 선택해서 사용해도 된다.
In the above description, an image signal pertaining to one kind of image signal is input to generate a differential image, but the present invention is not limited thereto. For example, black image data using a plurality of different photographing conditions may be input and stored in the
<제2 실시형태>≪ Second Embodiment >
다음에, 본 발명의 제2 실시형태에 대해 설명한다. 도 7은, 제2 실시형태에 따른 촬상장치의 개략 구성을 나타낸 블록도다. 도 7에 나타낸 것과 같이, 제2 실시형태에 따른 촬상장치는, 도 3에 나타낸 촬상장치에, 광학계 801과 제2 촬상 소자(802)를 추가하여 구현된다. 그 이외의 구성은 도 3에 나타낸 것과 유사하기 때문에 설명을 생략하지만, 촬상 소자 302에 대해서는, 제2 촬상 소자(802)와 구별하기 위해서, 제2 실시형태에서는 제1 촬상 소자(302)로 부른다.
Next, a second embodiment of the present invention will be described. 7 is a block diagram showing a schematic configuration of an image pickup apparatus according to the second embodiment. As shown in Fig. 7, the imaging apparatus according to the second embodiment is implemented by adding an
도 8은, 제2 실시형태에 따른 제2 촬상 소자의 구성을 나타낸 블록도다. 도 8에 있어서, 제2 촬상 소자(802)는, 수광부(702), 아날로그/디지털(AD) 변환부(703), 출력부(704) 및 제어회로(701)를 구비한다. 수광부(702)에는, 빛을 전기로 변환하는 광전 변환소자를 포함하는 복수의 화소가 행 방향 및 열 방향으로 2차원으로 배치되어 있다. AD 변환부(703)는, 수광부(702)의 화소에 의해 생성된 아날로그 화상신호를 디지털 신호(화상 데이터)로 변환하고, 출력부(704)는, AD 변환부(703)로부터 출력된 디지털 화상신호(화상 데이터)를 촬상 소자 802의 외부로 출력한다. 제어회로(701)는, 수광부(702) 및 AD 변환부(703)에 있어서의 각종 구동을 제어한다.
8 is a block diagram showing a configuration of a second image pickup device according to the second embodiment. 8, the second
도 1에 나타낸 제1 촬상 소자(302)와는 다르게, 제2 촬상 소자(802)는 화상 처리부를 갖지 않는다. 그 때문에, 제2 실시형태에 있어서는, 렌즈 및 조리개 등을 포함하는 광학계 801을 거쳐 입사한 입사광을 제2 촬상 소자(802)가 전기신호로 변환해서. 이 전기신호를 제1 촬상 소자(302)에 출력한다. 그리고, 제1 촬상 소자(302)의 화상 처리부(108)가 각종 화상처리를 행한다.
Unlike the first
제2 실시형태에서는, 타이밍 신호 발생회로(303)는, 제1 촬상 소자(302) 및 제2 촬상 소자(802)를 동작시키는 신호를 발생하고, 구동회로(304)는, 광학계 301 및 광학계 801을 구동한다. 본 실시형태에 있어서, 타이밍 신호 발생회로(303)에 의해 발생된 신호에는 수직 및 수평 동기신호, 촬상 소자 302 및 802 내부의 각종 설정 파라미터를 설정하기 위한 설정용 신호 등이 포함된다. 타이밍 신호 발생회로(303)에 의해 발생된 신호에는, 예를 들어, 신호의 송신처를 특정하기 위한 어드레스 정보 등을 포함해도 된다. 이렇게 발생된 신호에 송신처를 특정하는 어드레스 정보를 포함시킴으로써, 신호선을 공통으로 사용하는 것이 가능해 진다. 도 7에 있어서, 제1 촬상 소자(302)와 제2 촬상 소자(802)는 타이밍 신호 발생회로(303) 및 제어회로(306)에 대해 병렬로 접속되어 있다. 그러나, 이들 구성에 한정되지 않고, 직렬로 접속해도 된다. 이 경우, 타이밍 신호 발생회로(303)로부터 입력된 신호 등은 제1 촬상 소자(302) 경유로 제2 촬상 소자(802)에 공급된다. 이러한 구성으로 함으로써, 2개 이상의 촬상 소자를 접속하는 경우에 제어용의 접속 회로를 간략화할 수 있다.
In the second embodiment, the timing
도 9 내지 도 13을 참조하여, 제2 실시형태에 있어서, 촬상장치에 의해 행해지는 각종 촬영 처리 및 화상 생성처리에 대해 상세하게 설명한다. 제2 실시형태에 있어서, 제1 촬상 소자(302)만을 필요로 하는, 통상 촬영시에 실행되는 처리는, 도 4를 참조하여 설명한 제1 실시형태에 따른 것과 같기 때문에, 설명을 생략한다.
With reference to Figs. 9 to 13, various shooting processing and image generation processing performed by the imaging apparatus in the second embodiment will be described in detail. Fig. In the second embodiment, the processing that is performed only at the time of normal photographing, which requires only the first
도 9는, 제2 촬상 소자(802)로부터 출력되는 화상 데이터를 제1 촬상 소자(302)에 입력하고, 제1 촬상 소자(302)가 입력 화상 데이터에 각종 화상처리를 실행해서 결과적으로 얻어지는 화상 데이터를 출력할 때 실행되는 촬영 처리를 나타낸 흐름도다.
9 shows an example in which the image data output from the second
도 9에 있어서, 우선, 조작 회로(307)를 거쳐 유저에 의해 내려진 지시 등에 따라, 제2 촬상 소자(802)에 대하여, 감광 속도, 조리개 값, 노광 시간 등의 촬영 조건의 초기 설정이 구성된다(스텝 S901). 이어서, 광학계 801 등을 제어하여, 제2 촬상 소자(802)의 수광부(702)의 노광을 행한다(스텝 S902). 소정의 축적 시간의 경과후, 수광부(702)에 의해 생성된 전기신호를 AD 변환부 703이 디지털 화상신호(화상 데이터)로 변환한 후, 출력부(704)로부터 제2 촬상 소자(802)의 외부로 출력된다(스텝 S903). 이때, 제2 촬상 소자(802)는 화상 처리부를 구비하고 있지 않기 때문에, 출력되는 화상 데이터에 대해 각종 화상보정 등이 실행되지 않는다.
9, an initial setting of photographing conditions such as a photographing speed, a diaphragm value, and an exposure time is configured for the second
제2 촬상 소자(802)로부터 출력된 화상 데이터는 제1 촬상 소자(302)에 입력된다(스텝 S904). 이어서, 제1 촬상 소자(302)에 입력된 화상 데이터에 대하여, 화상 처리부(108)의 신호 증폭부(201), 기준 레벨 조정부(202), 보정부(203) 및 현상 처리부(204)가, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S905). 최후에, 화상 처리부(108)로부터 출력된 화상 데이터를 출력부(111)로부터 제1 촬상 소자(302)의 외부의 기록 회로(305) 혹은 표시 회로(308)에 출력한 후(스텝 S906), 촬영 처리를 종료한다.
The image data output from the second
도 10은, 제2 실시형태에 있어서, 제1 촬상 소자(302)가 정지 화상을 촬영하고, 제2 촬상 소자(802)가 동화상을 촬영할 때 실행되는 촬영 처리를 나타낸 흐름도다. 여기에서는 일례로서, 제2 촬상 소자(802)가 라이브 뷰 화상 혹은 동화상을 촬영하고 있는 동안, 제1 촬상 소자(302)가 정지 화상을 촬영하는 경우에 대해 설명한다. 이와 달리, 제1 촬상 소자(302)에서 라이브 뷰 화상 혹은 동화상을 촬영하고 있는 동안에, 제2 촬상 소자(802)가 정지 화상을 촬영해도 된다.
Fig. 10 is a flowchart showing an image capturing process executed when the first
도 10에 있어서, 우선, 조작 회로(307)를 거쳐 유저에 의해 내려진 지시 등에 따라, 제2 촬상 소자(802)에 대하여, 감광 속도, 조리개 값, 노광 시간 등의 촬영 조건의 초기 설정이 구성된다(스텝 S1001). 이어서, 광학계 801 등을 제어하여, 제2 촬상 소자(802)의 수광부(702)의 노광을 행하고, 라이브 뷰 촬영 혹은 동화상 촬영을 개시한다(스텝 S1002).
10, an initial setting of photographing conditions such as a photographing speed, a diaphragm value, and an exposure time is configured for the second
AD 변환부 703은, 수광부(702)에 의해 생성된 프레임마다의 전기신호를 디지털 화상신호(화상 데이터)로 변환하고, 출력부(704)로부터 제2 촬상 소자(802)의 외부로 출력한다(스텝 S1003). 이때, 제2 촬상 소자(802)는 화상 처리부를 구비하고 있지 않기 때문에, 출력되는 화상 데이터에는 각종 화상보정 등이 실행되지 않는다.
The
제2 촬상 소자(802)로부터 출력된 화상 데이터는, 제1 촬상 소자(302)에 입력된다(스텝 S1004). 이어서, 제1 촬상 소자(302)에 입력된 화상 데이터에 대하여, 화상 처리부(108)의 신호 증폭부(201), 기준 레벨 조정부(202), 보정부(203) 및 현상 처리부(204)가, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S1005). 그리고, 화상 처리부(108)로부터 출력된 화상 데이터를 출력부(111)로부터, 동화상 촬영시 및 라이브 뷰 촬영시에 제1 촬상 소자(302)의 외부의 기록 회로(305) 및 표시 회로(308)에 각각 출력한다(스텝 S1006).
The image data output from the second
라이브 뷰 촬영 혹은 동화상 촬영중에, 유저가 조작 회로(307)를 거쳐 정지 화상 촬영의 지시를 내린 경우(스텝 S1007에서 YES), 제1 촬상 소자(302)가 정지 화상 촬영을 개시한다.
If the user gives an instruction to shoot a still image via the operation circuit 307 (YES in step S1007) during live view shooting or moving image shooting, the
우선, 조작 회로(307)를 거쳐 유저에 의해 내려진 지시 등에 따라, 제1 촬상 소자(302)에 대하여, 감광 속도, 조리개 값, 노광 시간 등의 촬영 조건의 초기 설정이 구성된다(스텝 S1008). 이어서, 광학계(301)등을 제어하여, 제1 촬상 소자(302)의 수광부(104)의 노광을 행한다(스텝 S1009). 소정의 축적 시간의 경과후, AD 변환부 105는, 수광부(104)에 의해 생성된 전기신호를 디지털 화상신호(화상 데이터)로 변환한 후, 화상 처리부(108)에 판독된다(스텝 S1010).
First, the initial setting of the shooting conditions such as the speed of light exposure, the aperture value, and the exposure time is configured for the first
이어서, 화상 처리부(108)에 입력된 화상신호에 대하여, 신호 증폭부(201), 기준 레벨 조정부(202), 보정부(203) 및 현상 처리부(204)가, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S1011). 그리고, 화상 처리부(108)로부터 출력된 화상신호를 출력부(111)로부터 제1 촬상 소자(302)의 외부의 기록 회로(305) 혹은 표시 회로(308)에 출력한다(스텝 S1012).
The
정지 화상 촬영후, 또는, 정지 화상 촬영의 지시가 행해지고 있지 않은 경우(스텝 S1007에서 NO), 계속해서 라이브 뷰 촬영 혹은 동화상 촬영을 계속할지를 판정한다(스텝 S1013). 라이브 뷰 촬영 혹은 동화상 촬영을 계속하는 경우에는, 일련의 촬영 동작이 스텝 S1001로 되돌아가, 다음의 프레임에 대한 라이브 뷰 촬영 혹은 동화상 촬영을 행하고, 라이브 뷰 촬영 혹은 동화상 촬영을 계속하지 않는 경우에는, 일련의 촬영 동작을 종료한다. After the still image shooting, or when the instruction to shoot still image is not made (NO in step S1007), it is determined whether to continue live view shooting or moving image shooting (step S1013). When the live view photographing or moving image photographing is continued, a series of photographing operations return to step S1001 to perform live view photographing or moving image photographing for the next frame, and when live view photographing or moving image photographing is not continued, And ends the series of photographing operations.
도 11은, 제2 실시형태에 있어서, 제1 촬상 소자(302)와 제2 촬상 소자(802)에 의해 각각 촬영한 정지 화상을 합성할 때 실행되는 촬영 처리를 나타낸 흐름도다. 이 촬영 방법은, 예를 들면, 2개의 촬상 소자를 사용해서 3D 표시용의 복수의 시차 화상을 생성하는 경우 등에 이용할 수 있다. 차량 탑재 카메라 등에 이 방법을 사용하는 경우, 2개의 촬상 소자를 사용해서 얻어지는 시차 화상에 근거하여 피사체의 측거를 행해도 된다. 즉, 2개의 촬상 소자로부터 얻어지는 시차 화상으로부터 삼각측량의 원리를 이용하여 대상물까지의 거리를 계측할 수 있다.
11 is a flowchart showing an image capturing process executed when a still image captured by the first
도 11에 있어서, 우선, 조작 회로(307)를 거쳐 유저에 의해 내려진 지시 등에 따라, 제1 촬상 소자(302) 및 제2 촬상 소자(802)에 대하여, 감광 속도, 조리개 값, 노광 시간 등의 촬영 조건의 초기 설정이 구성된다(스텝 S1101). 이어서, 광학계 301 및 801 등을 제어하여, 제1 촬상 소자(302)의 수광부(104) 및, 제2 촬상 소자(802)의 수광부(702)의 노광을 행한다(스텝 S1102). 소정의 축적 시간의 경과후, AD 변환부 105는 제1 촬상 소자(302)의 수광부(104)에 의해 생성된 전기신호를 디지털 화상신호(화상 데이터)로 변환한 후, 촬영 화상 데이터로서 화상 처리부(108)에 판독된다(스텝 S1103). 또한, AD 변환부 703은 제2 촬상 소자(802)의 수광부(702)에 의해 생성된 전기신호를 디지털 화상신호(화상 데이터)로 변환한 후, 출력부(704)로부터 제2 촬상 소자(802)의 외부로 출력하여(스텝 S1103), 촬상 소자 302에 입력된다(스텝 S1104). 이때, 촬상 소자 802는 화상 처리부를 구비하고 있지 않기 때문에, 제2 촬상 소자(802)로부터 출력되어 촬상 소자 302에 입력되는 화상 데이터에 대해 각종 화상보정 등이 실행되지 않는다.
11, first of all, with respect to the
그후, 제1 촬상 소자(302)에 의해 행해진 촬영을 통해 얻어진 화상 데이터와, 제2 촬상 소자(802)에 의해 행해진 촬영을 통해 얻어진 화상 데이터 각각에 대해, 화상 처리부(108)의 신호 증폭부(201), 기준 레벨 조정부(202), 보정부(203) 및 현상 처리부(204)가, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리 등의 각종 화상처리를 실행한다. 각종 화상처리를 실행한 후, 이 화상 데이터 쌍은 화상 처리부(108)의 화상 합성부(205)에 의해 합성된다(스텝 S1105). 이어서, 합성된 화상 데이터에 대하여, 화상 처리부(108)의 현상 처리부(204)가 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S1106).
Thereafter, the image data obtained through the imaging performed by the
최후에, 화상 처리부(108)로부터 출력된 화상 데이터를 출력부(111)로부터 촬상 소자 302의 외부의 기록 회로(305) 혹은 표시 회로(308)에 출력한 후(스텝 S1107), 촬영 처리를 종료한다.
Finally, the image data output from the
도 12는, 제2 실시형태에 있어서, 제1 촬상 소자(302)와 제2 촬상 소자(802)에 의해 동일한 피사체의 동화상을 촬영해서 합성할 때 실행되는 촬영 처리를 나타낸 흐름도다. 이 촬영 방법은, 예를 들면, 1개의 촬상 소자로부터 출력된 화상 데이터와 다른 촬상 소자로부터 출력된 화상 데이터를 교대로 판독해서 이것들을 합성함으로써, 고속 프레임 레이트의 동화상을 생성하는 경우에 이용할 수 있다.
Fig. 12 is a flowchart showing an imaging process performed when a moving image of the same subject is captured and synthesized by the
도 12에 있어서, 우선, 조작 회로(307)를 거쳐 유저에 의해 내려진 지시 등에 따라, 제1 촬상 소자(302) 및 제2 촬상 소자(802)에 대하여, 감광 속도, 조리개 값, 노광 시간 등의 촬영 조건의 초기 설정이 구성된다(스텝 S1201). 이어서, 광학계 301 및 801 등을 제어하여, 제1 촬상 소자(302)의 수광부(104) 및, 제2 촬상 소자(802)의 수광부(702)를 노광하고, 동화상 촬영을 개시한다(스텝 S1202). 이때, 제1 촬상 소자(302)와 제2 촬상 소자(802)는 같은 프레임 레이트와 반주기에 대응하는 위상 시프트로 동화상 촬영을 행한다.
12, first of all, with respect to the first
제1 촬상 소자(302)의 수광부(104)가 1프레임에 해당하는 축적을 완료하였을 때, AD 변환부 105는 수광부(104)에 의해 생성된 전기신호를 디지털 화상신호(화상 데이터)로 변환한 후, 촬영 화상 데이터로서 화상 처리부(108)에 판독된다(스텝 S1203). 이어서, 화상 처리부(108)에 판독된 화상 데이터에 대하여, 화상 처리부(108)의 신호 증폭부(201), 기준 레벨 조정부(202), 보정부(203) 및 현상 처리부(204)가 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S1204). 신호 처리가 실행된 화상 데이터는 메모리부(109)에 기록된다(스텝 S1205).
When the
이어서, 제2 촬상 소자(802)의 수광부(702)가 1프레임에 해당하는 축적을 완료하였을 때, AD 변환부 703은 수광부(702)에 의해 생성된 전기신호를 디지털 화상신호로 변환한 후, 출력부(704)로부터 제2 촬상 소자(802)의 외부로 출력한다(스텝 S1206). 이때, 제2 촬상 소자(802)는 화상 처리부를 구비하고 있지 않기 때문에, 출력되는 화상 데이터에는 각종 화상보정 등이 실행되지 않는다.
Subsequently, when the
제2 촬상 소자(802)로부터 출력된 화상 데이터는 제1 촬상 소자(302)에 입력된다(스텝 S1207). 이어서, 입력부(112)를 거쳐 제2 촬상 소자(802)로부터 입력된 화상 데이터에 대하여, 화상 처리부(108)의 신호 증폭부(201), 기준 레벨 조정부(202), 보정부(203) 및 현상 처리부(204)가, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 프레임간 노이즈 리덕션 처리, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S1208). 신호 처리가 실행된 화상 데이터는, 앞서 기록된 제1 촬상 소자(302)의 화상 데이터에 이어서, 메모리부(109)에 기록된다(스텝 S1209).
The image data output from the second
그후, 계속해서 동화상 촬영을 계속할지를 판정한다(스텝 S1210). 동화상 촬영을 계속하는 경우에는, 일련의 촬영 동작이 스텝 S1203으로 되돌아가, 전술한 처리를 반복한다. 동화상 촬영을 계속하지 않는 경우에는, 제1 촬상 소자(302)의 수광부(104) 및, 제2 촬상 소자(802)의 수광부(702)에 있어서의 노광을 멈추고 동화상 촬영을 종료한다(스텝 S1211). 그리고, 메모리부(109)에 기록한 동화상 데이터를 출력부(111)로부터 제1 촬상 소자(302) 외부의 기록 회로(305)에 출력하고(스텝 S1212), 일련의 촬영 동작을 종료한다.
Then, it is determined whether to continue moving image capture (step S1210). When moving image shooting is to be continued, a series of photographing operations are returned to step S1203, and the above-described processing is repeated. When the moving image capturing is not to be continued, the exposure of the
도 13은, 제2 실시형태에 있어서, 제1 촬상 소자(302)에 의해 행해진 촬영의 촬영 조건을 정하기 위한 보조 수단으로서 제2 촬상 소자(802)를 사용하는 경우에 실행되는 촬영 처리를 나타낸 흐름도다. 이와 같은 처리는, 예를 들면, 제2 촬상 소자(802)로부터의 출력 신호에 근거하여, 제1 촬상 소자(302) 내부에 포함된 화상 처리부(108)가 피사체의 측광값을 산출하고, 산출한 측광값에 근거하여, 제1 촬상 소자(302)에 의해 행해진 촬영의 촬영 조건을 규정하는 경우에 이용할 수 있다.
13 is a flowchart showing a photographing process performed when the second
도 13에 있어서, 우선, 제2 촬상 소자(802)에 대하여, 감광 속도, 노광 시간 등의 측정 조건의 초기 설정이 구성된다(스텝 S1301). 이어서, 광학계 801 등을 제어하여, 제2 촬상 소자(802)의 수광부(702)의 노광을 행하여, 촬영을 개시한다(스텝 S1302). AD 변환부 703이 수광부(702)에 의해 생성된 프레임마다의 전기신호를 디지털 화상신호(화상 데이터)로 변환한 후, 출력부(704)로부터 제2 촬상 소자(802)의 외부로 출력한다(스텝 S1303). 이때, 제2 촬상 소자(802)는 화상 처리부를 구비하고 있지 않기 때문에, 출력되는 화상 데이터에 대해 각종 화상보정 등이 실행되지 않는다.
In Fig. 13, first, the initial setting of the measurement conditions such as the light-sensitive speed and the exposure time is configured for the second image sensing element 802 (step S1301). Subsequently, the
제2 촬상 소자(802)로부터 출력된 화상 데이터는, 제1 촬상 소자(302)에 입력된다(스텝 S1304). 이어서, 화상 처리부(108)의 신호 해석부(206)는 제2 촬상 소자(802)로부터의 화상 데이터를 해석하여, 예를 들면, 피사체의 휘도값을 산출한다(스텝 S1305). 그리고, 그 산출 결과를 기초로, 감광 속도, 조리개 값, 노광 시간 등의 제1 촬상 소자(302)에 의해 행해진 촬영의 촬영 조건을 설정한다(스텝 S1306). 이어서, 광학계 301 등을 제어하여, 제1 촬상 소자(302)의 수광부(104)의 노광을 행한다(스텝 S1307). 소정의 축적 시간의 경과후, AD 변환부 105가 수광부(104)에 의해 생성된 전기신호를 디지털 화상신호(화상 데이터)로 변환한 후, 화상 처리부(108)에 판독된다(스텝 S1308).
The image data output from the second
이어서, 화상 처리부(108)에 입력된 화상 데이터에 대하여, 신호 증폭부(201), 기준 레벨 조정부(202), 보정부(203), 현상 처리부(204)가 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 화이트 밸런스 조정, 현상 처리 등의 각종 화상처리를 실행한다(스텝 S1309). 최후에, 화상 처리부(108)로부터 출력된 화상 데이터를 출력부(111)로부터 제1 촬상 소자(302)의 외부의 기록 회로(305) 혹은 표시 회로(308)에 출력하고(스텝 S1310), 촬영 처리를 종료한다.
The
상기한 것과 같이, 제2 실시형태에 따르면, 제1 실시형태에서 설명한 촬상 소자 이외에 다른 촬상 소자를 구비하므로, 다른 촬상 소자에 의해 행해진 촬영을 통해 생성된 화상 데이터에 대하여 촬상 소자 내에 포함된 화상 처리회로를 사용해서 화상처리를 실행할 수 있다. 즉, 2개의 촬상 소자의 화상 데이터에 대한 화상처리를, 외부의 화상처리회로를 사용하지 않고 실행할 수 있다. As described above, according to the second embodiment, since the image pickup device other than the image pickup device described in the first embodiment is provided, the image data generated through the image pickup performed by the other image pickup device is subjected to image processing Image processing can be performed using a circuit. That is, image processing for image data of two imaging elements can be performed without using an external image processing circuit.
또한, 화상처리회로를 촬상 소자의 내부에 설치함으로써, 촬상 소자의 외부에 설치된 1개의 화상처리회로가 복수의 촬상 소자로부터의 화상 데이터를 입력으로서 수신할 필요가 있는 경우에 달성될 수 없는 이점이 있다. 이들 이점으로는, 복수의 촬상 소자로부터의 화상 데이터를 합성한 결과를 출력할 때에, 고속화 뿐만 아니라, 회로에 필요한 단자수를 들 수 있다. In addition, by providing the image processing circuit inside the image pickup element, an advantage that can not be achieved when one image processing circuit provided outside the image pickup element needs to receive image data from a plurality of image pickup elements as input have. These advantages include not only speeding up but also the number of terminals required for a circuit when outputting the result of combining image data from a plurality of image pickup devices.
전술한 본 실시형태에서는, 제1 촬상 소자(302)가 화상 처리부를 구비하지만, 제2 촬상 소자(802)가 화상 처리부를 구비하지 않는 구성 예에 대해 소개했다. 그렇지만, 본 실시형태는 이러한 구성에 한정되는 것은 아니고, 예를 들면, 제2 촬상 소자(802)도 제1 촬상 소자(302)와 유사한 화상 처리부 및 입력부를 구비하고, 한쪽의 촬상 소자의 화상 처리부만을 사용해서 화상처리를 행하는 경우에는, 다른 쪽의 촬상 소자의 화상 처리부를 동작시키지 않고, 즉 전력공급을 받지 않거나, 또는 전력 절약제어 하에 놓여도 된다.
In the above-described embodiment, the
전술한 본 실시형태에서는 촬상장치의 제어회로(306)를 제1 촬상 소자(302) 및 제2 촬상 소자(802)와는 독립하여 설치하는 구성 예에 대해 소개했다. 그렇지만, 본 실시형태는 이러한 구성에 한정되는 것은 아니고, 제어회로(306)의 적어도 일부의 구성을 제1 촬상 소자(302)나 제2 촬상 소자(802)에 내장하도록 구성해도 된다. 예를 들면, 제1 촬상 소자(302)가 타이밍 신호 발생회로(303)를 내장 구성요소로서 포함하는 경우, 제2 촬상 소자(802)에 신호를 공급하고, 제2 촬상 소자(802)는 제1 촬상 소자(302)에 의해 제어된다.
In the above-described embodiment, a configuration example in which the
2개의 촬상 소자 중에서, 한 개가 가시 광선을 촬상하는 한편, 나머지 한 개가 적외선 등의 비가시 광선을 촬상해도 된다. 이와 달리, 2개의 촬상 소자 중에서, 한개(예를 들면, 가시 광선을 촬상하는 촬상 소자)가 칼라 화상을 촬영하고, 나머지 한개(예를 들면, 비가시 광선을 촬상하는 촬상 소자)가 흑백 화상을 촬영해도 된다. One of the two imaging elements may pick up a visible ray and the other one may capture an invisible ray such as an infrared ray. Alternatively, one of the two imaging elements (for example, an imaging element that captures visible light) captures a color image, and the other one (e.g., an imaging element that captures an invisible ray) It may be photographed.
이때, 제1 촬상 소자(302)와 제2 촬상 소자(802)는 타이밍 신호 발생회로(303) 및 제어회로(306)에 대해 직렬로 접속하는 구성으로 해도 된다. 이 경우, 제2 촬상 소자(802)에서 출력되는 화상 데이터는 제1 촬상 소자(302) 경유로 기록 회로(305) 등에 기록되게 된다. 이러한 구성에 있어서, 제2 촬상 소자(802)에서 출력되는 화상 데이터를 표시 회로(308)에 표시하는 경우, 제1 촬상 소자(302) 내부에서 처리를 하는 것은 표시 타이밍을 지연시킬 염려가 있다. 이 지연 타이밍을 저감하기 위해, 제1 촬상 소자(302)에 있어서, 입력부(112)와 출력부(111)를 바이패스하도록 데이터가 제어되어도 된다. 이러한 구성으로 함으로써, 2개 이상의 촬상 소자를 직렬로 접속하는 경우에 기록 또는 표시 타이밍의 지연을 저감할 수 있다.
At this time, the
<제3 실시형태>≪ Third Embodiment >
다음에, 본 발명의 제3 실시형태에 대해 설명한다. 제3 실시형태에 따른 촬상 소자(1400)는 제1 및 제2 실시형태에 따른 촬상 소자(302)와 다른 구성을 갖는다. 이때, 제3 실시형태에 따른 촬상장치는, 촬상 소자 302가 후술하는 촬상 소자 1400으로 치환된 것을 제외하고는, 제1 실시형태에서 도 3을 참조하여 설명한 촬상장치, 또는, 제2 실시형태에서 도 7을 참조하여 설명한 촬상장치와 같다. 그 이외의 구성은 제1 및 제2 실시형태에서 설명한 구성과 유사하기 때문에, 설명을 생략한다.
Next, a third embodiment of the present invention will be described. The
도 14는, 제3 실시형태에 따른 촬상 소자(1400)의 구성을 나타낸 블록도다. 도 14에 있어서, 촬상 소자(1400)는, 제1 기판(1401)과 제2 기판(1402)이 적층된 구조를 갖는다. 제1 기판(1401)과 제2 기판(1402)은, 제1 기판(1401) 내부의 접속부 1404와, 제2 기판(1402) 내부의 접속부 1405 사이에서, 복수의 관통 전극(1406)에 의해 전기적으로 접속되어 있고, 이때, 접속부 1404는 1개 이상의 화소로 각각 구성된 화소 세트와 1대 1 대응하여 설치되고 접속부 1405와 같은 수를 갖는다. 이들 관통 전극은, 예를 들면, 스루 실리콘 비아(through-silicon via(TSV))이다.
14 is a block diagram showing a configuration of an
제1 기판(1401)은, 수광부(1411), 접속부 1404, 제어회로(1410)를 구비한다. 수광부(1411)에서는, 빛을 전기로 변환하는 광전 변환소자를 포함하는 복수의 화소(1403)가 행 방향 및 열 방향으로 2차원으로 배치되어 있고, 수광부(1411)에 의해 생성한 신호를 접속부 1404를 거쳐 제2 기판(1402)으로 전송한다. 제어회로(1410)는, 수광부(1411)에 있어서의 각종 구동을 제어한다. 제3 실시형태의 설명에 있어서, 1개의 접속부 1404는 도 14에 나타낸 것과 같이 2X2, 즉 4개의 화소(1403)로 구성된 화소 세트당 구비하는 것으로 가정한다.
The
제2 기판(1402)은, 접속부 1405, 화상 처리부(1408), 메모리부(109)와, 입력부(112) 및 출력부(111)로 이루어진 인터페이스부(110)를 구비한다. 메모리부(109) 및 인터페이스부(110)의 구성요소, 즉 입력부(112) 및 출력부(111)는 도 1을 참조하여 설명한 것과 유사하기 때문에, 여기에서는 설명을 생략한다. 접속부 1405는, 제1 기판으로부터 전송되는 화상신호를 받는다.
The
화상 처리부(1408)는, 제1 기판(1401)으로부터 접속부 1405를 거쳐 전송되는 아날로그 신호를 디지털 신호로 변환한다. 화상 처리부(1408)는, AD 변환을 통해 얻어진 화상 데이터와 메모리부(109) 및 입력부(112)로부터 전송되는 화상 데이터에 대하여, 신호 증폭, 기준 레벨 조정, 결함 화소 보정처리, 현상 처리 등의 각종 화상처리를 실행한다. 화상 처리부(1408)는, 2X2, 즉 4개의 화소(1403)로 각각 구성된 화소 시트와 1 대 1로 대응하도록 구비된 복수의 부분 화상 처리부(1407)를 구비한다. 화상 처리부(1408)의 구성에 대해서는 도 16을 참조해서 상세하게 후술한다.
The
도 15를 참조하여, 이하에서는, 제3 실시형태에 따른 촬상 소자(1400)의 수광부(1411)) 및 주변의 구성요소의 구성에 대해 상세하게 설명한다. 도 15는, 제3 실시형태에 따른, 촬상 소자(1400)의 제1 기판(1401)의 개략 구성을 나타낸 블록도다.
15, the following will describe in detail the configuration of the components of the light-receiving
도 15에 나타낸 것과 같이, 촬상 소자(1400)의 제1 기판(1401)은, 복수의 화소(1403)가 행렬 방향으로 배치되어 있는 수광부(1411)와, 제어회로(1410)와, 구동 신호선(1501)을 갖고 있다. 제어회로(1410)는, 각 화소(1403)들에게 구동 신호선(1501)을 거쳐 구동 펄스를 송출한다. 이때, 간략화를 위해, 도면에는 한 개의 구동 신호선(1501)이 1행마다 또는 2행마다 설치되어 있지만, 실제로는, 각 화소마다 화소(1403)의 구동을 제어하는데 적절한 복수의 구동 신호선이 접속된다. 화소 세트를 구성하는 2X2, 즉 4개의 화소(1403)가 동일한 접속부 1404에 접속된다. 제어회로(1410)는, 동일한 접속부 1404를 공유하는 각 화소(1403)에 의해 생성되는 신호가 서로 혼합되지 않고, 발생된 신호를 순서대로 제2 기판(1402)에 출력하도록 제어를 행한다. 도 15에 있어서는, 8행 8열로 수광부(1411)를 구성하는 화소(1403)가 배치되어 있지만, 실제로는 수천 행 및 수천 열로 배치된다.
15, the
이때, 제1 실시형태에 있어서, 도 1 및 도 2를 참조하여 설명한 촬상 소자(302)의 구성요소와 같은 구성요소에 대해서는 동일한 부호를 붙이고, 상세한 설명을 생략한다.
Here, in the first embodiment, the same components as those of the
도 16은, 제3 실시형태에 따른 촬상 소자(1400)의 화상 처리부(1408)의 구성을 나타낸 블록도다. 제3 실시형태에 있어서는, 화상 처리부(1408)는, 복수의 부분 화상 처리부(1407), 보정부(1603), 화상 합성부(1605) 및 현상 처리부(1604)로 구성된다. 제3 실시형태에서 나타낸 예에서는, 부분 화상 처리부(1407)는, 2X2, 즉 4개의 화소(1403)로 각각 구성된 화소 세트와 1 대 1 대응하여 구비되고, 각각 접속부 1405, AD 변환부(1600), 신호 증폭부(1601), 기준 레벨 조정부(1602) 및 신호 해석부(1606)로 구성된다. AD 변환부(1600)는, 접속부 1405를 거쳐 판독되는 각 화소(1403)로부터의 아날로그 화상신호를 디지털 신호(화상 데이터)로 변환한다. 그 밖의 구성요소는 도 2를 참조하여 설명한 제1 실시형태의 촬상 소자(302)의 화상 처리부(108)의 구성요소와 유사하기 때문에, 설명은 생략한다.
16 is a block diagram showing the configuration of the
이때, 보정부(1603)에 있어서의 각종 보정처리, 화상 합성부(1605)에 있어서의 화상 합성처리, 및 현상 처리부(1604)에 있어서의 현상 처리는, 복수의 부분 화상 처리부(1407)에 있어서 각종 화상처리를 통해 얻어진 화상 데이터를 1개의 화상 데이터로 병합한 후에 행한다.
At this time, various correction processing in the
다음에, 제3 실시형태에 따른 촬영 처리의 일례에 대해 상세하게 설명한다. 여기에서는, 제2 실시형태에서 설명한 도 7에 나타낸 구성을 갖는 촬상장치에 있어서 제1 촬상 소자(302) 대신에 촬상 소자 1400을 사용하는 것으로 가정하고, 제2 촬상 소자(802)와 구별하기 위해, 제1 촬상 소자(1400)로 부른다. 이하, 도 13의 흐름도를 참조하여, 제1 촬상 소자(1400)의 촬영 조건을 정하기 위한 보조 수단으로서 제2 촬상 소자(802)를 사용하는 경우에 실행되는 처리를 설명한다. 이 처리는, 예를 들면, 제2 촬상 소자(802)로부터의 출력 신호에 근거하여, 제1 촬상 소자(1400) 내부에 포함된 화상 처리부(108)가 피사체의 측광값을 산출하고, 산출한 측광값에 근거하여, 제1 촬상 소자(1400)에 대한 촬영 조건을 정하는 경우에 이용할 수 있다.
Next, an example of the photographing process according to the third embodiment will be described in detail. Here, it is assumed that the
이때, 제2 촬상 소자(802)가 화상을 취득하고 그 출력 신호를 촬상 소자(1400)에 입력하는 스텝 S1301 내지 스텝 S1304의 처리는 제2 실시형태의 처리와 유사하기 때문에, 설명을 생략한다.
At this time, the processing in steps S1301 to S1304 in which the second
다음에, 화상 처리부(1408)의 신호 해석부(1606)는 제2 촬상 소자(802)로부터의 화상 데이터를 해석하여, 예를 들면, 피사체의 휘도값을 화소(1403)와 1 대 1 대응하여 산출한다(스텝 S1305). 그리고, 그 산출 결과를 기초로, 감광 속도, 조리개 값, 노광 시간 등의 제1 촬상 소자(1400)에 의해 행해진 촬영의 촬영 조건을 설정한다(스텝 S1306).
Next, the
이때, 제3 실시형태에 있어서는, 신호 해석부(1606)에 의한 해석 결과를 기초로, 휘도값에 따른 제1 촬상 소자(1400) 내부에 있어서의 서로 다른 전하 축적 시간 등의 촬영 조건을 사용하여, 보다 넓은 다이나믹 레인지를 지원하는 동작을 실현할 수 있다. 구체적으로는, 피사체의 휘도값이 높은 것으로 추정되는 화소(1403)는, 제어회로(103)를 거쳐, 촬상 소자(1400)를 노광하는 동안 축적 시간이 더 짧아지도록 제어를 행한다. 반대로, 피사체의 휘도값이 낮은 것으로 추정되는 화소(1403)는, 전하 축적 시간이 더 길어지도록 제어를 행한다. 이렇게 제어함으로써, 통상의 촬영시에 얻어진 화상보다 다이나믹 레인지가 넓은 화상을 취득하는 것이 가능하다. 또한, 신호 해석부(1606)에 의한 피사체 휘도의 해석 결과를 기초로, 부분 화상 처리부(1407)의 신호 증폭부에 의해 사용된 증폭률을, 각 화소(1403)에 의해 발생된 피사체 휘도마다 제어함으로써도, 이와 유사한 유리한 효과를 얻을 수 있다.
At this time, in the third embodiment, on the basis of the analysis result by the
그후, 제1 촬상 소자(1400)에 의한 화상 취득으로부터 화상 데이터 출력까지의 처리(스텝 S1307 내지 스텝 S1310)는, 제2 실시형태에서 설명한 처리와 동일하기 때문에, 설명을 생략한다.
Thereafter, the processes from the image acquisition by the first
이상에서 도 14 내지 도 16을 참조해서 제3 실시형태에 따른 촬상장치에 대해 설명하였지만, 본 발명은 이것에 한정되지 않고, 다양한 형태로 구현해도 된다. 14 to 16, the image pickup apparatus according to the third embodiment has been described. However, the present invention is not limited to this and may be implemented in various forms.
예를 들면, 도 14 및 도 15를 참조하여 설명한 촬상 소자(1400)의 구성에 따르면, 화소 세트를 구성하는 2X2, 즉 4개의 화소(1403)가 공통된 접속부 1404, 접속부 1405, 관통 전극(1406) 및 부분 화상 처리부(1407)를 공유한다. 그렇지만, 본 발명은 이것에 한정되는 것은 아니고, 보다 많은 화소(1403)가 이것들을 공유하거나, 1개의 화소(1403)가 이들을 점유하여 사용해도 된다.
For example, according to the configuration of the
예를 들면, 도 16을 참조하여 설명한 화상 처리부(1408)의 구성에 따르면, 각 부분 화상 처리부(1407)가 대응하는 기준 레벨 조정부(1602)와 신호 해석부(1606)를 구비한다. 그렇지만, 본 발명은 이것에 한정되는 것은 아니고, 화상 처리부(1408)가 한 개의 기준 레벨 조정부와 신호 해석부를 구비해도 된다.
For example, according to the configuration of the
도 1 내지 도 16을 참조하여, 제1 내지 제3 실시형태에 따른 촬상장치에 대해 설명하였지만, 본 발명은 이것에 한정되지 않고, 다양한 형태로 구현해도 된다. The imaging apparatus according to the first to third embodiments has been described with reference to Figs. 1 to 16. However, the present invention is not limited to this and may be implemented in various forms.
예를 들면, 도 1을 참조하여 설명한 촬상 소자(302)는, 2매의 기판이 적층되도록 구성된다. 그렇지만, 본 발명은 이것에 한정되는 것은 아니고, 1매의 기판 위에 수광부(104) 및 화상 처리부(108)를 포함하는 모든 요소가 장착되어도 되고, 또는 3매 이상의 기판이 적층되어도 된다.
For example, the
또한, 예를 들면, 도 3 및 도 7을 참조하여 설명한 촬상장치의 구성에 따르면, 촬상 소자에 의해 생성된 화상 데이터에 대한 각종 화상처리를 모두 촬상 소자(302) 내부의 화상 처리부(108)가 행하고, 촬상 소자 외부에 화상 처리회로가 설치되지 않는다. 그렇지만, 본 발명은 이것에 한정되는 것은 아니고, 촬상 소자(302)와는 별도로 화상 처리회로를 구비하고, 촬영한 화상 데이터에 대한 각종 화상처리를 내부의 화상 처리부(108)와 외부의 화상 처리회로가 분담해도 된다.
3 and 7, all of the image processing for the image data generated by the image pickup device is performed by the
예를 들면, 도 1을 참조하여 설명한 촬상 소자(302)의 구성에 따르면, 인터페이스부(110)가, 단자수 삭감을 위해, 화상 데이터를 인터페이스부(110)로부터 촬상 소자(302)의 외부로 출력하고, 화상 데이터를 촬상 소자(302)의 외부에서 인터페이스부(110)에 입력하기 위한 공통의 단자를 사용한다. 그렇지만, 본 발명은 이것에 한정되는 것은 아니고, 입력 단자와 출력 단자를 별개로 각각 독립하여 설치해도 된다. 특히 제2 실시형태와 같이 제1 촬상 소자(302)에 화상신호가 빈번하게 입력될 때에는, 입력 및 출력을 위해 공통 단자를 사용하는 것 대신에, 입력 단자와 출력 단자를 별개로 구비하는 것이 바람직하다.
For example, according to the configuration of the
예시적인 실시형태들을 참조하여 본 발명을 설명하였지만, 본 발명이 이러한 실시형태에 한정되지 않는다는 것은 자명하다. 이하의 청구범위의 보호범위는 가장 넓게 해석되어 모든 변형, 동등물 구조 및 기능을 포괄하여야 한다. While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to those embodiments. The scope of the following claims is to be accorded the broadest interpretation so as to encompass all such modifications, equivalent structures and functions.
Claims (29)
상기 촬상 소자의 외부에서 화상 데이터가 입력되는 입력부와,
상기 촬상부에서 얻어진 화상 데이터 및 상기 입력부에서 입력된 화상 데이터에 대해 화상처리를 실행하는 화상 처리부와,
상기 화상 처리부에 의한 화상처리를 통해 얻어진 화상 데이터를, 외부로 출력하기 위한 출력부를 구비한 촬상 소자.
An imaging device comprising an imaging section including a plurality of photoelectric conversion elements,
An input unit for inputting image data from the outside of the image pickup device;
An image processing unit for executing image processing on image data obtained by the image pickup unit and image data input from the input unit;
And an output unit for outputting image data obtained through image processing by the image processing unit to the outside.
상기 촬상부, 상기 입력부, 상기 화상 처리부 및 상기 출력부가 1개의 패키지로 설치된 촬상 소자.
The method according to claim 1,
Wherein the image pickup section, the input section, the image processing section, and the output section are provided in one package.
상기 촬상부에 의한 촬영의 타이밍이, 상기 촬상 소자의 외부에서 상기 입력부에 화상 데이터가 입력되는 타이밍과 다른 촬상 소자.
The method according to claim 1,
Wherein the timing of photographing by the image pickup unit is different from the timing at which image data is input from the outside of the image pickup device to the input unit.
상기 촬상부에서 얻어진 화상 데이터를 상기 화상 처리부에 공급하는 공급부를 더 구비하고, 상기 공급부는 상기 입력부와 독립된 촬상 소자.
The method according to claim 1,
Further comprising a supply section for supplying the image data obtained by the image pickup section to the image processing section, wherein the supply section is independent of the input section.
상기 입력부에서 입력되는 화상 데이터는, 적어도 표시, 기록 및 분석 중 어느 한개에 사용되는 촬상 소자.
The method according to claim 1,
Wherein the image data input from the input unit is used for at least one of display, recording and analysis.
상기 화상 처리부는, 상기 입력부에 입력된 화상 데이터에 대해 현상 처리를 실행하는 촬상 소자.
The method according to claim 1,
Wherein the image processing unit executes development processing on the image data input to the input unit.
상기 화상 처리부는, 상기 촬상부에서 얻어진 화상 데이터와, 상기 입력부에서 입력된 화상 데이터를 합성하는 합성 처리를 행하는 촬상 소자.
The method according to claim 1,
Wherein the image processing unit performs a combining process of combining the image data obtained by the image pickup unit and the image data input by the input unit.
상기 합성 처리에서, 상기 화상 처리부는, 상기 촬상부에서 얻어진 화상 데이터와 상기 입력부에서 입력된 화상 데이터를 다른 게인을 사용하여 증폭하는 촬상 소자.
8. The method of claim 7,
In the combining processing, the image processing unit amplifies the image data obtained by the imaging unit and the image data input by the input unit using different gains.
상기 합성 처리에서, 상기 화상 처리부는, 상기 촬상부에서 얻어진 화상 데이터와 상기 입력부에서 입력된 화상부의 평균을 구하는 촬상 소자.
8. The method of claim 7,
In the combining processing, the image processing unit obtains the image data obtained by the image pickup unit and the average of the image units input from the input unit.
상기 화상 처리부는, 상기 촬상부에서 얻어진 화상 데이터로부터, 상기 입력부에서 입력된 화상 데이터를 감산하는 촬상 소자.
The method according to claim 1,
Wherein the image processing unit subtracts the image data input from the input unit from the image data obtained by the image pickup unit.
상기 화상 처리부는 복수의 광전 변환소자로 각각 구성된 광전 변환소자 세트들과 1 대 1 대응하여 복수 설치된 촬상 소자.
The method according to claim 1,
Wherein the image processing unit is provided with a plurality of photoelectric conversion element sets each composed of a plurality of photoelectric conversion elements in one-to-one correspondence.
미리 결정된 수의 광전 변환소자로 각각 구성된 광전 변환소자 세트들과 1 대 1 대응하여 설치된 복수의 접속부를 더 구비하고,
상기 화상 처리부는 상기 복수의 접속부와 1 대 1 대응하여 설치된 촬상 소자.
12. The method of claim 11,
Further comprising a plurality of connecting portions provided in a one-to-one correspondence with the set of photoelectric conversion elements each composed of a predetermined number of photoelectric conversion elements,
Wherein the image processing unit is provided in a one-to-one correspondence with the plurality of connection units.
공통 단자가 상기 입력부의 구성요소와 상기 출력부의 구성요소 모두로서의 역할을 하는 촬상 소자.
The method according to claim 1,
Wherein the common terminal serves as both a component of the input section and a component of the output section.
상기 촬상부와 상기 화상 처리부는, 적층된 서로 다른 기판 위에 구성되고, 서로 전기적으로 접속되어 있는 촬상 소자.
The method according to claim 1,
Wherein the imaging section and the image processing section are formed on different substrates stacked and electrically connected to each other.
상기 촬상 소자로부터 출력된 화상 데이터의 표시 처리부와,
기록 처리부를 구비한 촬상장치.
An image pickup device comprising an image pickup section including a plurality of photoelectric conversion elements, the image pickup device comprising: an input section for inputting image data outside the image pickup device; image processing means for performing image processing on the image data obtained by the image pickup section and the image data input from the input section And an output unit for outputting image data obtained through image processing by the image processing unit to the outside,
A display processing unit of image data output from the image pickup element,
And a recording processing unit.
복수의 광전 변환소자를 갖는 촬상부를 구비한 제2 촬상 소자를 구비하고,
상기 제1 촬상 소자는,
외부에서 화상 데이터가 입력되는 입력부와,
상기 입력부에서 입력된 화상 데이터에 대해 화상처리를 실행하는 화상 처리부와,
상기 화상 처리부에 의한 화상처리를 통해 얻어진 화상 데이터를 외부로 출력하기 위한 출력부를 구비하고,
상기 제2 촬상 소자로부터 상기 제1 촬상 소자의 상기 입력부에 입력된 화상 데이터에 대해 상기 화상 처리부가 화상처리를 실행하는 촬상장치.
A first image pickup element having an image pickup section having a plurality of photoelectric conversion elements,
And a second image pickup element having an image pickup section having a plurality of photoelectric conversion elements,
Wherein the first imaging device includes:
An input unit for inputting image data from outside,
An image processing unit for executing image processing on the image data input by the input unit,
And an output unit for externally outputting the image data obtained through the image processing by the image processing unit,
Wherein the image processing unit executes image processing on the image data input from the second image pickup element to the input unit of the first image pickup element.
상기 제1 촬상 소자 및 상기 제2 촬상 소자를 제어하는 제어부를 더 구비한 촬상장치.
17. The method of claim 16,
And a control section for controlling the first imaging device and the second imaging device.
상기 제1 촬상 소자의 상기 촬상부, 상기 입력부, 상기 화상 처리부 및 상기 출력부는 1개의 패키지로 설치된 촬상장치.
17. The method of claim 16,
And the image pickup section, the input section, the image processing section, and the output section of the first image pickup device are provided in one package.
상기 촬상부에 의한 촬영의 타이밍이, 상기 촬상 소자의 외부에서 상기 입력부에 화상 데이터가 입력되는 타이밍과 다른 촬상장치.
17. The method of claim 16,
Wherein timing of photographing by the image pickup section is different from timing when image data is input from the outside of the image pickup device to the input section.
상기 입력부에서 입력되는 화상 데이터는, 적어도 표시, 기록 및 분석 중 어느 한개에 사용되는 촬상장치.
17. The method of claim 16,
Wherein the image data input from the input unit is used for at least one of display, recording and analysis.
상기 화상 처리부는, 상기 입력부에 입력된 화상 데이터에 대해 현상 처리를 실행하는 촬상장치.
17. The method of claim 16,
Wherein the image processing section executes development processing on the image data input to the input section.
상기 화상 처리부는, 상기 제1 촬상 소자로부터 얻어진 화상 데이터에 대해 화상처리를 실행하는 촬상장치.
17. The method of claim 16,
And the image processing section executes image processing on image data obtained from the first image pickup device.
상기 화상 처리부는, 상기 제1 촬상 소자의 촬상부에서 얻어진 화상 데이터와, 상기 입력부에서 입력된 화상 데이터를 합성하는 합성 처리를 행하는 촬상장치.
17. The method of claim 16,
Wherein the image processing section performs a combining process of combining image data obtained by the image pickup section of the first image pickup device and image data input from the input section.
상기 제1 촬상 소자는 정지 화상을 촬영하고, 상기 제2 촬상 소자는 동화상을 촬영하는 촬상장치.
17. The method of claim 16,
Wherein the first imaging element captures a still image and the second imaging element captures a moving image.
상기 제1 촬상 소자는 동화상을 촬영하고, 상기 제2 촬상 소자는 정지 화상을 촬영하는 촬상장치.
17. The method of claim 16,
Wherein the first imaging element captures a moving image and the second imaging element captures a still image.
상기 제1 촬상 소자와 상기 제2 촬상 소자는, 미리 결정된 시차를 갖는 동일한 피사체를 촬영하는 촬상장치.
17. The method of claim 16,
Wherein the first imaging element and the second imaging element capture the same subject having a predetermined parallax.
상기 제1 촬상 소자 및 상기 제2 촬상 소자는 서로 다른 프레임 위상을 갖는 동화상을 촬영하는 촬상장치.
17. The method of claim 16,
Wherein the first imaging element and the second imaging element capture a moving image having different frame phases.
상기 제1 촬상 소자의 상기 촬상부와 상기 화상 처리부는, 적층된 서로 다른 기판 위에 구성되고, 서로 전기적으로 접속되어 있는 촬상장치.
17. The method of claim 16,
Wherein the image pickup section and the image processing section of the first image pickup device are formed on different substrates stacked and electrically connected to each other.
상기 화상 데이터의 표시 처리부와,
기록 처리부를 더 구비한 촬상장치.17. The method of claim 16,
A display processing unit of the image data,
And a recording processing unit.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JPJP-P-2015-230028 | 2015-11-25 | ||
JP2015230028 | 2015-11-25 | ||
JP2016175882A JP6808409B2 (en) | 2015-11-25 | 2016-09-08 | Image sensor and imaging device |
JPJP-P-2016-175882 | 2016-09-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20170061075A true KR20170061075A (en) | 2017-06-02 |
Family
ID=59017129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160156148A KR20170061075A (en) | 2015-11-25 | 2016-11-23 | Image sensor and image capturing apparatus |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6808409B2 (en) |
KR (1) | KR20170061075A (en) |
CN (1) | CN107046625B (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6748622B2 (en) * | 2017-02-16 | 2020-09-02 | ソニーセミコンダクタソリューションズ株式会社 | Imaging system and imaging device |
JP6951917B2 (en) | 2017-09-15 | 2021-10-20 | 株式会社ソニー・インタラクティブエンタテインメント | Imaging device |
JP7039237B2 (en) * | 2017-09-29 | 2022-03-22 | キヤノン株式会社 | Imaging device, imaging system, mobile body, circuit chip |
CN112804467B (en) * | 2021-04-15 | 2021-06-25 | 北京惠风智慧科技有限公司 | Image coding method and device based on multiple CMOS sensors |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3528335B2 (en) * | 1994-08-22 | 2004-05-17 | 株式会社日立製作所 | Video camera system |
US5815201A (en) * | 1995-02-21 | 1998-09-29 | Ricoh Company, Ltd. | Method and system for reading and assembling audio and image information for transfer out of a digital camera |
JP4185582B2 (en) * | 1998-03-18 | 2008-11-26 | キヤノン株式会社 | Imaging device, control device, signal processing system, method and recording medium |
US20070177025A1 (en) * | 2006-02-01 | 2007-08-02 | Micron Technology, Inc. | Method and apparatus minimizing die area and module size for a dual-camera mobile device |
JP2008153997A (en) * | 2006-12-18 | 2008-07-03 | Matsushita Electric Ind Co Ltd | Solid-state imaging device, camera, vehicle, surveillance device and driving method for solid-state imaging device |
JP5451052B2 (en) * | 2008-12-15 | 2014-03-26 | キヤノン株式会社 | Imaging device |
JP2012018621A (en) * | 2010-07-09 | 2012-01-26 | Panasonic Corp | Image processing apparatus, image processing method and program |
US8988558B2 (en) * | 2011-04-26 | 2015-03-24 | Omnivision Technologies, Inc. | Image overlay in a mobile device |
JP6016378B2 (en) * | 2012-02-29 | 2016-10-26 | キヤノン株式会社 | Photoelectric conversion device and imaging system using photoelectric conversion device |
CN103561213A (en) * | 2013-11-14 | 2014-02-05 | 深圳市视晶无线技术有限公司 | Wireless shooting management system with auxiliary camera |
JP6314477B2 (en) * | 2013-12-26 | 2018-04-25 | ソニー株式会社 | Electronic devices |
JP6408372B2 (en) * | 2014-03-31 | 2018-10-17 | ソニーセミコンダクタソリューションズ株式会社 | SOLID-STATE IMAGING DEVICE, ITS DRIVE CONTROL METHOD, AND ELECTRONIC DEVICE |
US20150319390A1 (en) * | 2014-04-30 | 2015-11-05 | Sandia Corporation | Stacked and tiled focal plane array |
-
2016
- 2016-09-08 JP JP2016175882A patent/JP6808409B2/en active Active
- 2016-11-23 KR KR1020160156148A patent/KR20170061075A/en not_active IP Right Cessation
- 2016-11-25 CN CN201611053766.1A patent/CN107046625B/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017103752A (en) | 2017-06-08 |
CN107046625A (en) | 2017-08-15 |
CN107046625B (en) | 2020-08-04 |
JP6808409B2 (en) | 2021-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6780745B2 (en) | Electronics | |
JP4448888B2 (en) | Imaging apparatus and signal processing method of imaging apparatus | |
JP5317591B2 (en) | Imaging device | |
JP6561428B2 (en) | Electronic device, control method, and control program | |
CN107046625B (en) | Image sensor and image pickup apparatus | |
EP3174286B1 (en) | Image sensor and image capturing apparatus | |
US20240089402A1 (en) | Electronic apparatus, reproduction device, reproduction method, recording medium, and recording method | |
JP2009049525A (en) | Imaging apparatus and method for processing signal | |
TW200417251A (en) | Solid photographing element and digital camera | |
JP6118058B2 (en) | Solid-state imaging device, imaging apparatus, and control method | |
CN117135480A (en) | Image sensing device | |
US20170318209A1 (en) | Device and image processing method | |
JP2010062639A (en) | Imaging apparatus | |
JP2014165778A (en) | Solid state image sensor, imaging device and focus detector | |
US10686987B2 (en) | Electronic apparatus with image capturing unit having first and second imaging regions that capture an image of a subject under differing imaging conditions | |
US20170318256A1 (en) | Electronic apparatus, reproduction device, reproduction method, recording medium, and recording method | |
JP2017120971A (en) | Solid state imaging device and imaging apparatus | |
US20170324911A1 (en) | Electronic apparatus, reproduction device, reproduction method, recording medium, and recording method | |
JP2017194656A (en) | Image capturing device, control method therefor, program, and storage medium | |
JP2008270832A (en) | Solid-state imaging element and imaging apparatus | |
JP2005303653A (en) | Image pickup device | |
JP2006340100A (en) | Photographic device | |
JP2005012403A (en) | Digital camera and picture information acquisition method | |
WO2020203799A1 (en) | Imaging element and imaging device | |
JP5726244B2 (en) | Imaging apparatus and imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
X601 | Decision of rejection after re-examination |