[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN105684421A - 电子设备 - Google Patents

电子设备 Download PDF

Info

Publication number
CN105684421A
CN105684421A CN201480060312.XA CN201480060312A CN105684421A CN 105684421 A CN105684421 A CN 105684421A CN 201480060312 A CN201480060312 A CN 201480060312A CN 105684421 A CN105684421 A CN 105684421A
Authority
CN
China
Prior art keywords
shooting
region
imaging conditions
image
electronic equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480060312.XA
Other languages
English (en)
Other versions
CN105684421B (zh
Inventor
木下朗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to CN201910663234.7A priority Critical patent/CN110418057A/zh
Publication of CN105684421A publication Critical patent/CN105684421A/zh
Application granted granted Critical
Publication of CN105684421B publication Critical patent/CN105684421B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1006Beam splitting or combining systems for splitting or combining different wavelengths
    • G02B27/1013Beam splitting or combining systems for splitting or combining different wavelengths for colour or multispectral image sensors, e.g. splitting an image into monochromatic image components on respective sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions
    • H04N25/535Control of the integration time by using differing integration times for different sensor regions by dynamic region selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Exposure Control For Cameras (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

在一个区域中利用多个摄像条件进行拍摄,由此来进行良好的拍摄。具有:摄像元件(100),其在第一区域(某个区块(200))和第二区域(其他区块)接受来自被拍摄体的光束,并能够利用不同的条件对第一区域和第二区域进行拍摄;以及控制部(70),其至少在第一区域,针对第一处理利用多个摄像条件来控制拍摄。

Description

电子设备
技术领域
本发明涉及一种电子设备。
背景技术
提出有如下电子设备,其包括层叠了背面照射型摄像芯片和信号处理芯片而成的摄像元件(以下将该摄像元件称为层叠型摄像元件。)(例如参照专利文献1)。层叠型摄像元件以如下方式层叠:按汇集了多个像素而成的区块单位,经由微凸块连接背面照射型摄像芯片和信号处理芯片。
现有技术文献
专利文献
专利文献1:JP特开2006-49361号公报
发明内容
但是,在以往的包括层叠型摄像元件的电子设备中,按多个区块单位进行拍摄而取得图像的提案不多,包括层叠型摄像元件的电子设备的使用便利性还不够。
在本发明的方式中,其目的在于,在一个区域内利用多个摄像条件进行拍摄,由此进行高精度的测光以及光源判断。
根据本发明的第一方式,提供一种电子设备,该电子设备具有:摄像元件,其在第一受光区域和第二受光区域利用不同的摄像条件进行拍摄;以及控制部,其利用根据在所述第一受光区域和所述第二受光区域进行的拍摄而求出的摄像条件,控制拍摄。
根据本发明的第二方式,提供一种电子设备,该电子设备具有:摄像元件,其在第一区域和第二区域接受来自被拍摄体的光束,并能够利用不同的条件对所述第一区域和所述第二区域进行拍摄;以及控制部,其至少在所述第一区域,针对第一处理利用多个摄像条件来控制拍摄。
发明效果
根据本发明的方式,能够在一个区域利用多个摄像条件进行拍摄,由此来进行良好的拍摄。
附图说明
图1是第一实施方式的摄像元件的剖视图。
图2是说明摄像芯片的像素排列和单位组的图。
图3是与摄像芯片的单位组对应的电路图。
图4是示出摄像元件的功能性结构的框图。
图5是示出第一实施方式的多个区块和区块内的多个区域的图。
图6是示出作为电子设备的一个例子的数码相机的概略结构的横向剖视图。
图7是示出第一实施方式的数码相机的结构的框图。
图8是用于说明第一实施方式的系统控制部所执行的拍摄动作的流程图。
图9是示出第一实施方式的区块内的多个区域的电荷蓄积的时间的时序图。
图10是示出第一实施方式的逆光场景的显示例的图。
图11是示出逆光场景的恰当曝光的图像的分布图(histogram)。
图12是示出逆光场景的曝光过度的图像的分布图。
图13是示出逆光场景的曝光不足的图像的分布图。
图14是示出第二实施方式的区块内的多个区域的图。
图15是示出第二实施方式的逆光场景的显示例以及对比度AF(自动对焦)区域的图。
图16是示出逆光场景的恰当曝光的图像的焦点评估值与透镜位置的关系的曲线图。
图17是示出逆光场景的曝光过度的图像的焦点评估值与透镜位置的关系的曲线图。
图18是示出第三实施方式的逆光场景的显示例以及相位差AF区域的图。
图19是示出第三实施方式的区块内的多个区域的图。
图20是示出第四实施方式的区块内的多个区域的图。
图21是用于说明第四实施方式的系统控制部所执行的拍摄动作的流程图。
图22是示出第四实施方式的逆光场景的显示例的图。
图23是示出第四实施方式的逆光场景的合成图像的显示例的图。
图24是示出第五实施方式的摄像装置以及电子设备的结构的框图。
具体实施方式
图1是第一实施方式的摄像元件100的剖视图。摄像元件100记载于本申请申请人在先申请的日本特愿2012-139026号中。摄像元件100具有输出与入射光对应的像素信号的摄像芯片113、处理从摄像芯片113输出的像素信号的信号处理芯片111、以及存储由信号处理芯片111处理的像素信号的存储芯片112。摄像芯片113、信号处理芯片111以及存储芯片112层叠,摄像芯片113以及信号处理芯片111通过Cu(铜)等具有导电性的凸块109彼此电连接。另外,信号处理芯片111以及存储芯片112通过Cu等具有导电性的凸块109彼此电连接。
如图示的坐标轴所示,入射光主要向Z轴正方向入射。在本实施方式中,在摄像芯片113中,将入射光入射这一侧的面称为背面。另外,如坐标轴所示,将与Z轴正交的纸面左方向作为X轴正方向,将与Z轴及X轴正交的纸面近前方向作为Y轴正方向。在以后的若干幅图中,将图1的坐标轴作为基准显示坐标轴,以便于理解各图的方向。
摄像芯片113的一例是背面照射型的MOS(MetalOxideSemiconductor:金属氧化物半导体)图像传感器。PD层106配置在布线层108的背面侧。PD层106具有以二维方式配置并对与入射光相应的电荷进行蓄积的多个光电二极管(Photodiode:以下称为PD)104和与PD104对应地设置的晶体管105。
在PD层106中的入射光的入射侧,隔着钝化膜103设置有彩色滤光片102。彩色滤光片102是使可见光中的特定波长区域通过的滤光片。该彩色滤光片102具有使互不相同的波长区域透射的多个种类,与PD104的每一个对应地具有特定的排列。关于彩色滤光片102的排列在后面说明。彩色滤光片102、PD104及晶体管105的组形成一个像素。
在彩色滤光片102中的入射光的入射侧,与各个像素对应地设置有微型透镜101。微型透镜101朝向对应的PD104对入射光进行聚光。
布线层108具有将来自PD层106的像素信号传送到信号处理芯片111的布线107。布线107也可以是多层的,另外,也可以设置无源元件及有源元件。在布线层108的表面上配置有多个凸块109。这些多个凸块109与在信号处理芯片111的相对的面上设置的多个凸块109对位。而且,通过对摄像芯片113和信号处理芯片111加压等,将对位的凸块109彼此接合而电连接。
同样地,在信号处理芯片111及存储芯片112的相互相对的面上,配置有多个凸块109。这些凸块109相互对位。而且,通过对信号处理芯片111和存储芯片112加压等,将对位的凸块109彼此接合而电连接。
此外,凸块109间的接合不限于基于固相扩散实现的Cu凸块接合,也可以采用基于焊锡熔融实现的微凸块结合。另外,凸块109只要相对于例如后述的一个单位组设置一个左右即可。因此,凸块109的大小也可以比PD104的间距大。另外,也可以在排列有像素的像素区域(图2所示的像素区域113A)以外的周边区域中,一并设置比与像素区域对应的凸块109大的凸块。
信号处理芯片111具有将分别设置在表面及背面上的电路相互连接的TSV(Through-SiliconVia:硅贯通电极)110。TSV110设置在周边区域。另外,TSV110也可以设置在摄像芯片113的周边区域或存储芯片112。
图2是说明摄像芯片113的像素排列和单位组的图。在图2中,尤其示出了从背面侧观察到的摄像芯片113的情况。在摄像芯片113中,将排列有像素的区域称为像素区域(摄像区域)113A。在像素区域113A中,2000万个以上的像素排列成矩阵状。在图2所示的例子中,相邻的4像素×4像素的16像素形成一个单位组131。图2的格子线表示相邻的像素被分组而形成单位组131的概念。形成单位组131的像素的数量不限于此,也可以是1000个左右,例如32像素×64像素,也可以是其以上或以下。
如像素区域113A的局部放大图所示,单位组131是在上下左右内含4个由绿色像素Gb、Gr、蓝色像素B及红色像素R这4个像素构成的所谓拜耳排列。绿色像素是作为彩色滤光片102而具有绿色滤光片的像素,接受入射光中的绿色波段的光。同样地,蓝色像素是作为彩色滤光片102而具有蓝色滤光片的像素,接受蓝色波段的光。红色像素是作为彩色滤光片102而具有红色滤光片的像素,接受红色波段的光。
图3是与摄像芯片113的单位组对应的电路图。在图3中,代表性地用虚线包围的矩形表示与一个像素对应的电路。此外,以下说明的各晶体管的至少一部分与图1的晶体管105对应。
如上所述,单位组131由16个像素形成。与各个像素对应的16个PD104分别与传送晶体管302连接。被供给传送脉冲的TX布线307与各传送晶体管302的栅极连接。在本实施方式中,TX布线307相对于16个传送晶体管302共用连接。
各传送晶体管302的漏极与对应的各复位晶体管303的源极连接,并且传送晶体管302的漏极和各复位晶体管303的源极间的所谓浮动扩散FD(电荷检测部)与放大晶体管304的栅极连接。各复位晶体管303的漏极与被供给电源电压的Vdd布线310连接。各复位晶体管303的栅极与被供给复位脉冲的复位布线306连接。在本实施方式中,复位布线306相对于16个复位晶体管303共用连接。
各个放大晶体管304的漏极与被供给电源电压的Vdd布线310连接。另外,各个放大晶体管304的源极与对应的各个选择晶体管305的漏极连接。被供给选择脉冲的解码器布线308与各个选择晶体管305的栅极连接。在本实施方式中,解码器布线308相对于16个选择晶体管305分别独立地设置。而且,各个选择晶体管305的源极与共用的输出布线309连接。负荷电流源311将电流供给到输出布线309。即,对于选择晶体管305的输出布线309由源极跟随器形成。此外,负荷电流源311可以设置在摄像芯片113侧,也可以设置在信号处理芯片111侧。
这里,对从电荷的蓄积开始到蓄积结束后的像素输出为止的流程进行说明。通过复位布线306将复位脉冲施加于复位晶体管303。与此同时,通过TX布线307将传送脉冲施加于传送晶体管302。由此,PD104及浮动扩散FD的电位被复位。
在传送脉冲的施加被解除时,PD104将接受的入射光转换成电荷并蓄积。然后,在未施加复位脉冲的状态下,再次施加传送脉冲时,在PD104中蓄积的电荷被传送到浮动扩散FD。由此,浮动扩散FD的电位从复位电位成为电荷蓄积后的信号电位。而且,在通过解码器布线308将选择脉冲施加于选择晶体管305时,浮动扩散FD的信号电位的变动经由放大晶体管304及选择晶体管305传递到输出布线309。根据这样的电路的动作,与复位电位和信号电位对应的像素信号被从单位像素输出至输出布线309。
如图3所示,在本实施方式中,对于形成单位组131的16像素,复位布线306和TX布线307是共用的。即,分别对全部16个像素同时施加复位脉冲和传送脉冲。因此,形成单位组131的全部像素在同一时间开始电荷蓄积,在同一时间结束电荷蓄积。但是,与被蓄积的电荷对应的像素信号通过对各自的选择晶体管305依次施加选择脉冲,而被选择性地输出至输出布线309。另外,复位布线306、TX布线307、输出布线309按每个单位组131独立设置。
像这样将单位组131作为基准构成电路,由此能够按每个单位组131控制电荷蓄积时间。换言之,能够在单位组131间分别输出基于不同的电荷蓄积时间的像素信号。再换言之,在使一个单位组131进行1次电荷蓄积的期间,使另一个单位组131反复进行多次电荷蓄积而每次输出像素信号,由此,还能够在这些单位组131间以不同的帧频输出动态图像用的各帧。
图4是表示摄像元件100的功能性结构的框图。模拟的多路复用器(multiplexer)411按顺序选择形成单位组131的16个PD104。而且,多路复用器411使16个PD104各自的像素信号向与该单位组131对应地设置的输出布线309输出。多路复用器411与PD104一起形成在摄像芯片113上。
经由多路复用器411输出的模拟信号的像素信号由形成在信号处理芯片111中的放大器412放大。而且,被放大器412放大的像素信号通过形成在信号处理芯片111上的、进行相关双采样(CDS:CorrelatedDoubleSampling)、模拟/数字(Analog/Digital)转换的信号处理电路413,来进行相关双采样的信号处理,并且进行A/D转换(从模拟信号向数字信号的转换)。像素信号在信号处理电路413中被实施相关双采样的信号处理,由此,降低了像素信号的噪声。被A/D转换的像素信号被传递至多路分配器(demultiplexer)414,并存储在与各个像素对应的像素存储器415中。多路分配器414及像素存储器415形成在存储芯片112中。
运算电路416对保存在像素存储器415中的像素信号进行处理并传递给后级的图像处理部。运算电路416可以设置在信号处理芯片111,也可以设置在存储芯片112。此外,在图4中,示出了一个单位组131的量的连接,但实际上它们按每个单位组131存在,且并行地动作。但是,运算电路416也可以不按每个单位组131存在。例如,一个运算电路416也可以一边按顺序参考与各个单位组131对应的像素存储器415的值一边按序处理。
如上所述,与各个单位组131对应地设置有输出布线309。摄像元件100层叠有摄像芯片113、信号处理芯片111及存储芯片112。由此,通过对这些输出布线309采用使用了凸块109的芯片间的电连接,能够无需在面方向上增大各芯片地布置布线。
以下,针对设定于摄像芯片113的像素区域113A(参照图2)内的区块以及设定于区块内的区域进行说明。图5是示出第一实施方式的多个区块200A和区块200A内的多个区域201、202和203的图。如图5所示,将摄像芯片113的像素区域113A分割为多个区块200A。多个区块200A定义为每一个区块至少包含一个单位组131。各区块200A分别以不同的控制参数来控制各区块200A中包含的像素。也就是说,在某区块所含有的像素组和另一个区块所含有的像素组中,能够取得控制参数不同的像素信号。作为控制参数,可以列举例如电荷的蓄积时间或蓄积次数、帧频、增益、间除率(像素间除率)、将像素信号相加的相加行数或相加列数(像素相加数)、数字化的位(bit)数等。而且,控制参数也可以是在获取来自像素的图像信号后的图像处理中的参数。
在本实施方式中,有时将像素区域113A的多个区块中的某个区块称为“第一区域”,将其他区块称为“第二区域”。摄像元件100能够表现为,在第一区域和第二区域接受来自被拍摄体的光束,并将第一区域和第二区域以不同的控制参数进行拍摄的元件。
如图5的局部放大图所示,在区块200A中设有第一测光区域201、第二测光区域202以及第三测光区域203。通过分别以不同的控制参数(例如电荷的蓄积时间或者蓄积次数、帧频和增益)控制第一测光区域201、第二测光区域202以及第三测光区域203,来测量来自被拍摄体的光束。第一测光区域201设定有成为恰当曝光的控制参数(即,使图像的亮度恰当的控制参数)。第二测光区域202设定有成为曝光程度比恰当曝光高的曝光过度的控制参数。第三测光区域203设定有成为曝光程度比恰当曝光低的曝光不足的控制参数。如此,本实施方式的摄像元件100能够针对多个区块200A中的每一个按照不同的控制参数进行拍摄并输出像素信号,并且能够对各区块200A中的多个测光区域中的每一个按照不同的控制参数进行拍摄并输出像素信号。
如图5的局部放大图所示,在区块200A中离散且均等地形成有多个第二测光区域202,并且离散且均等地形成有多个第三测光区域203。第二测光区域202以及第三测光区域203分别形成为小方形的区域。在图5所示的例子中,第二测光区域202与第三测光区域203在上下以及左右交错地配置。在区块200A中,第一测光区域201是除了第二测光区域202以及第三测光区域203以外的区域。将第一测光区域201、第二测光区域202以及第三测光区域203定义为分别包含至少一个单位组131。
在图5所示的例子中,第二测光区域202的面积与第二测光区域202的面积相同。第一测光区域201的面积比第二测光区域202的面积和第三测光区域203的面积更大。如此,在区块200A中,第一测光区域201与第二测光区域202以及第三测光区域203的面积比例是不同的。此外,在图5所示的例子中,假设在全部区块200A中均设定有第一测光区域201、第二测光区域202以及第三测光区域203。但也可以构成为仅针对像素区域113A内的区块中的规定的区块设定有第一测光区域201、第二测光区域202以及第三测光区域203。在这种情况下,为了能够在像素区域113A整体进行测光,在像素区域113A的整个表面上配置多个规定的区块。在除了规定的区块以外的区块上不设置第二测光区域202以及第三测光区域203,全部成为第一测光区域201。
此外,在图5中,为了容易观察区块200A的配置,在像素区域113A中只设定有很少数量的区块200A,但是也可以在像素区域113A中设定比图5所示的区块200A的数量更多数量的区块200A。
以下,针对控制参数进行说明。电荷的蓄积时间是指从PD104开始电荷蓄积到结束为止的时间。还将该电荷蓄积时间称为曝光时间或者快门速度(shutterspeed)。另外,电荷的蓄积次数是指PD104在每单位时间蓄积电荷的次数。另外,帧频是指表示在动态图像中单位时间内处理(显示或记录)的帧数的值。帧频的单位用fps(FramesPerSecond:帧每秒)表示。帧频越高,动态图像中的被拍摄体(即被拍摄的对象物)的动作变得越流畅。
另外,增益是指放大器412的增益率(放大率)。通过变更该增益,能够变更ISO感光度。该ISO感光度是由ISO决定的胶片的规格,表示胶片能够以何种程度的弱光进行记录。但是,一般来说,在表现摄像元件100的感光度的情况下,也使用ISO感光度。该情况下,ISO感光度是表示摄像元件100捕捉光的能力的值。当提高增益时,ISO感光度也提高。例如,当将增益加倍时,电信号(像素信号)也加倍,即使入射光的光量为一半也能够得到适当的亮度。但是,当提高增益时,电信号所含有的噪声也被放大,从而噪声变多。
另外,间除率是指在规定区域中不进行像素信号的读出的像素数相对于全部像素数的比例。例如,在规定区域的间除率为0的情况下,意味着从该规定区域内的全部像素读取像素信号。另外,在规定区域的间除率为0.5的情况下,意味着从该规定区域内的一半的像素来读出像素信号。具体来说,在单位组131为拜耳排列的情况下,在垂直方向上隔开一个拜耳排列的单位,即,按照像素单位的每2像素(每2行)交替地设定读出像素信号的像素和不读出像素信号的像素。此外,当进行像素信号读出的间除时,图像的分辨率降低。但是,由于在摄像元件100中配置有2000万以上的像素,所以例如即使以间除率0.5进行间除,也能够以1000万以上的像素显示图像。
另外,相加行数是指,在将垂直方向上相邻的像素的像素信号相加的情况下该相加的垂直方向上的像素的数量(行数)。另外,相加列数是指,在将水平方向上相邻的像素的像素信号相加的情况下该相加的水平方向上的像素的数量(列数)。这种相加处理例如在运算电路416中实施。通过运算电路416实施将垂直方向或水平方向上相邻的规定数的像素的像素信号相加的处理,能够发挥与以规定的间除率进行间除而读出像素信号的处理相同的效果。此外,在上述相加处理中,运算电路416也可以用相加得到的行数或列数除相加值来算出平均值。
另外,数字化的位数是指信号处理电路413在A/D转换中将模拟信号转换成数字信号时的位数。数字信号的位数越多,越详细地表现亮度或色彩变化等。
在本实施方式中,蓄积条件是指与摄像元件100中的电荷蓄积相关的条件。具体来说,蓄积条件是指上述控制参数中的电荷的蓄积时间或蓄积次数、帧频及增益。由于帧频与电荷的蓄积时间或蓄积次数相应地变化,所以帧频属于蓄积条件。另外,合理曝光的光量与增益相应地变化,电荷的蓄积时间或蓄积次数也与合理曝光的光量相应地变化。由此,增益属于蓄积条件。
另外,由于恰当曝光的光量根据电荷的蓄积时间或者蓄积次数、帧频以及增益而变化,所以在本实施方式中有时将蓄积条件也改称为曝光条件(与曝光有关的条件)。
另外,在本实施方式中,摄像条件是指与被拍摄体的拍摄有关的条件。具体来说,摄像条件是指包含上述蓄积条件的控制参数。摄像条件除了用于控制摄像元件100的控制参数(例如,电荷的蓄积时间或蓄积次数、帧频、增益)以外,还包括用于控制从摄像元件100读出信号的控制参数(例如,间除率、将像素信号相加的相加行数或相加列数)、用于对来自摄像元件100的信号进行处理的控制参数(例如,数字化的位数、用于使后述的图像处理部30执行图像处理的控制参数)。
图6是示出作为电子设备的一个例子的数码相机1的概略结构的横向剖视图。本实施方式的数量码照相机1具有透镜部10以及照相机机身2。透镜部10是可更换透镜。在照相机机身2上设有用于安装透镜部10的机身侧装载部80A。另外,在透镜部10上设有与机身侧装载部80A对应的透镜侧装载部80B。使用者将机身侧装载部80A与透镜侧装载部80B接合,由此将透镜部10安装于照相机机身2。当将透镜部10安装于照相机机身2时,使设于机身侧装载部80A的电接点81A与设于透镜侧装载部80B的电接点81B电连接。
透镜部10具有摄影光学系统11、光圈14以及透镜驱动控制装置15。在摄像光学系统11中包含透镜11a、缩放用透镜11b以及调焦用透镜11c。透镜驱动控制装置15具有透镜侧CPU(CentralProcessingUnit,中央处理器)、存储器以及驱动控制电路。透镜驱动控制装置15经由电接点81A和81B与照相机机身2侧的系统控制部(控制部)70电连接,发送与透镜部10所具有的摄影光学系统11的光学特性有关的透镜信息,接收用于驱动缩放用透镜11b、调焦用透镜11c以及光圈14的控制信息。
为了进行摄影光学系统11的焦点调节,透镜驱动控制装置15的透镜侧CPU基于从系统控制部70发送来的控制信息,使驱动控制电路执行调焦用透镜11c的驱动控制。为了进行缩放调节,透镜驱动控制装置15的透镜侧CPU基于从系统控制部70发送来的控制信息,使驱动控制电路执行缩放用透镜11b的驱动控制。光圈14沿着摄影光学系统11的光轴配置。光圈14为了调整光量以及模糊量而在光轴中心形成开口直径可变的开口。为了调节光圈14的开口直径,透镜驱动控制装置15的透镜侧CPU基于从系统控制部70发送来的控制信息,使驱动控制电路执行光圈14的驱动控制。
照相机机身2具有摄像部20、图像处理部30、显示部50、存储部60以及系统控制部(控制部)70。摄像部20具有摄像元件100。从透镜部10的摄影光学系统11射出的光束入射至摄像元件100。摄像元件100对入射的光束进行光电转换来生成摄像元件的各像素的像素信号(像素信号包含于图像数据中)。将由各像素的像素信号组成的RAW数据(RAW数据也包含于图像数据中)从摄像部20发送至图像处理部30。图像处理部30对由各像素的像素信号组成的RAW数据实施各种各样的图像处理,生成规定的文件格式(例如,JPEG格式等)的图像数据。显示部50显示图像处理部30所生成的图像数据。存储部60存储图像处理部30所生成的图像数据。
此外,有时将“图像数据”称为“图像信号”。另外,图像包含静态图像、动态图像和实时取景图像。实时取景图像是向显示部50依次输出由图像处理部30生成的图像数据而在显示部50上显示的图像。实时取景图像用于使用者确认由摄像部20拍摄的被拍摄体的图像。实时取景图像也称为实时显示(through)图像或者预览图像。
系统控制部70控制数码相机1的整体的处理以及动作。此外,针对系统控制部70的处理以及动作的详细还有照相机机身2内的结构的详细情况,在以下的图7中进行说明。
图7是示出第一实施方式的数量码照相机1的结构的框图。如图7所示,数码相机1具有照相机机身2和透镜部10。如上文所述,透镜部10是能够安装于照相机机身2或者从照相机机身2上拆下的可更换透镜。因此,数码相机1也可以不具有透镜部10。但是,透镜部10也可以与数码相机1一体构成。透镜部10在与照相机机身2连接的状态下,将来自被拍摄体的光束引导至摄像部20。
如上文所述,透镜部10具有透镜驱动控制装置15(参照图6)。另外,透镜部10具有作为摄影光学系统11的多个透镜组,也就是,具有透镜11a、缩放用透镜11b以及调焦用透镜11c。在透镜部10与照相机机身2连接的情况下,透镜驱动控制装置15将存储器中存储的透镜信息发送至照相机机身2的系统控制部70。另外,透镜部10与照相机机身2连接的情况下,透镜驱动控制装置15接收从系统控制部70发送来的控制信息(移动量和光圈值等)。透镜驱动控制装置15基于控制信息来进行缩放用透镜11b、调焦用透镜11c以及光圈14的驱动控制。调焦用透镜11c的驱动控制是用于进行调焦用透镜11c的焦点调节的控制,称为AF处理(AutomaticFocusing:自动对焦)。另外,光圈14的驱动控制是用于进行光圈14的开口直径调节的控制,称为AE处理(AutomaticExposure:自动曝光)。
如图7所示,照相机机身2具有摄像部20、图像处理部30、工作存储器40、显示部50、操作部55、记录部60以及系统控制部70。
摄像部20具有摄像元件100及驱动部21。驱动部21是根据来自系统控制部70的指示来控制摄像元件100的驱动的控制电路。这里,驱动部21通过控制将复位脉冲及传送脉冲分别施加到复位晶体管303及传送晶体管302的时间(或时间的周期),来对作为控制参数的电荷的蓄积时间或蓄积次数进行控制。另外,驱动部21通过控制将复位脉冲、传送脉冲及选择脉冲分别施加到复位晶体管303、传送晶体管302及选择晶体管305的时间(或时间的周期),来控制帧频。另外,驱动部21通过对施加复位脉冲、传送脉冲及选择脉冲的像素进行设定,来控制间除率。
另外,驱动部21通过控制放大器412的增益(也称为增益率、放大率),来控制摄像元件100的ISO感光度。另外,驱动部21通过向运算电路416发送指示,来设定将像素信号相加的相加行数或相加列数。另外,驱动部21通过向信号处理电路413发送指示,来设定数字化的位数。而且,驱动部21在摄像元件100的像素区域(摄像区域)113A中以区块200A为单位设定区域,并且在各区块200A中设定测光区域201、202和203。如此,驱动部21使摄像元件100对多个区块200A中的每一个以不同的摄像条件进行拍摄并输出像素信号,另外,发挥摄像元件控制部的功能,使各区块200A内的测光区域201、202和203中的每一个以不同的摄像条件进行拍摄并输出像素信号。系统控制部70对驱动部21指示区块200A的位置、形状、范围等。另外,系统控制部70还对驱动部21指示测光区域201、202和203的位置、形状、范围等。
摄像元件100将来自摄像元件100的像素信号传送到图像处理部30。图像处理部30将工作存储器40作为工作空间,对由各像素的像素信号构成的RAW数据实施各种图像处理,生成规定的文件格式(例如,JPEG格式等)的图像数据。图像处理部30进行以下的图像处理。例如,图像处理部30通过对基于拜耳排列得到的信号进行色彩信号处理(色调修正)而生成RGB图像信号。另外,图像处理部30对于RGB图像信号进行白平衡调整、锐度调整、伽马修正、灰度调整等的图像处理。另外,图像处理部30根据需要进行以规定的压缩格式(JPEG格式、MPEG格式等)压缩的处理。图像处理部30将生成的图像数据输出至记录部60。另外,图像处理部30将生成的图像数据输出至显示部50。
图像处理部30在进行图像处理时参考的参数也包含于控制参数(摄像条件)。例如,色彩信号处理(色调修正)、白平衡调整、灰度调整、压缩率等的参数包含于控制参数。从摄像元件100读出的信号与电荷的蓄积时间等相应地变化,在进行图像处理时参考的参数也与该信号的变化相应地变化。图像处理部30按每个区块200A以及测光区域201、202和203中的每一个设定不同的控制参数,基于这些控制参数来执行颜色信号处理等图像处理。
在本实施方式中,图像处理部30基于生成的图像数据,使用公知的面部检测功能来检测主要被拍摄体。此外,图像处理部30也可以比较按照时间序列得到的多个图像数据,以移动的被拍摄体(移动被拍摄体)作为主要被拍摄体进行检测。另外,图像处理部30除了面部检测以外,也可以例如JP特开2010-16621号公报(US2010/0002940号)中记载的那样,以图像数据中包含的人体作为主要被拍摄体进行检测。
此处,“主要被拍摄体”是指,作为拍摄的对象物的被拍摄体中的使用者(摄影者)所关注的被拍摄体或者推测为使用者所关注的被拍摄体。主要被拍摄体不限于在图像数据中只存在一个的情况,也有存在多个的情况。
工作存储器40在图像处理部30进行图像处理时暂时存储图像数据等。显示部50显示由摄像部20拍摄的图像(静态图像、动态图像和实时取景图像)、各种信息。例如,该显示部50具有液晶显示面板等显示面板51。在显示部50的显示面板51上形成有触摸面板52。当使用者进行选择菜单等操作时,触摸面板52将表示使用者触摸的位置的信号输出至系统控制部70。
操作部55是由使用者操作的释放开关(当拍摄静态图像时按下的开关)、动态图像开关(当拍摄动作时按下的开关)和各种操作开关等。该操作部55向系统控制部70输出与使用者的操作对应的信号。记录部60具有能够安装存储卡等存储介质的卡槽。记录部60在安装于卡槽上的记录介质中存储图像处理部30所生成的图像数据、各种数据。另外,记录部60具有内部存储器。记录部60能够在内部存储器中记录图像处理部30所生成的图像数据、各种数据。
系统控制部70控制数码相机1的整体的处理以及动作。该系统控制部70具有机身侧CPU(CentralProcessingUnit:中央处理器)。在本实施方式中,系统控制部70将摄像元件100(摄像芯片113)的摄像面(像素区域113A)分为多个区块200A,使区块200A之间以不同的电荷蓄积时间(或者电荷蓄积次数)、帧频和增益来取得图像。另外,系统控制部70将各区块200A分为第一测光区域201、第二测光区域202以及第三测光区域203,使测光区域201、202和203间以不同的电荷蓄积时间(或者电荷蓄积次数)、帧频和增益来取得图像。因此,系统控制部70对驱动部21指示区块200A的位置、形状、范围以及各区块200A用的摄像条件。另外,系统控制部70对驱动部21指示区块200A内的测光区域201、202和203的位置、形状、范围以及测光区域201、202和203用的摄像条件。
另外,系统控制部70使每个区块200A以及测光区域201、202和203中的每一个以不同的间除率、将像素信号相加的相加行数或者相加列数以及数字化的位数来取得图像。因此,系统控制部70对驱动部21指示各区块200A用的摄像条件(间除率、将像素信号相加得到的相加行数或者相加列数以及数字化的位数)以及测光区域201、202和203用的摄像条件。另外,图像处理部30对每个区块以及测光区域201、202和203中的每一个以不同的摄像条件(颜色信号处理、白平衡调整、灰度调整和压缩率等控制参数)进行图像处理。因此,系统控制部70对图像处理部30指示各区块200A用的摄像条件(颜色信号处理、白平衡调整、灰度调整和压缩率等控制参数)以及测光区域201、202和203用的摄像条件。
另外,系统控制部70在记录部60记录在图像处理部30中生成的图像数据。另外,系统控制部70向显示部50输出在图像处理部30中生成的图像数据,由此使显示部50显示图像。另外,系统控制部70读出记录部60所记录的图像数据并向显示部50输出,由此使显示部50显示图像。作为在显示部50上显示的图像,包含静态图像、动态图像和实时取景图像。
在本实施方式中,系统控制部70对像素区域113A的各区域设定摄像条件。即,系统控制部70对像素区域113A的各区块200A设定摄像条件,并且对各区块200A的第一测光区域201、第二测光区域202以及第三测光区域203设定摄像条件。另外,系统控制部70执行摄像元件100的驱动控制,以在像素区域113A的各区域中进行拍摄。
另外,系统控制部70基于半按下了释放开关的操作执行焦点调节处理(AF处理),以使被称为对比度AF的被拍摄体的对比度达到最大(参照图8的步骤S8)。具体来说,系统控制部70经由电接点81A和81B向透镜驱动控制装置15发送控制信息,由此使透镜驱动控制装置15移动调焦用透镜11c。另外,系统控制部70从图像处理部30取得对比度信号,该对比度信号表示摄像部20所拍摄到的被拍摄体的像的对比度(此处,在图像处理部30检测到主要被拍摄体的情况下,是该主要被拍摄体的像的对比度的评估值)。系统控制部70一边使调焦用透镜11c移动,一边基于来自图像处理部30的对比度信号,检测被拍摄体的像的对比度达到最高的调焦用透镜11c的位置来作为焦点位置。系统控制部70向透镜驱动控制装置15发送控制信号,以使调焦用透镜11c移动至检测到的焦点位置。
系统控制部70在拍摄实时取景图像的过程中执行曝光调节处理(AE处理)(参照图8的步骤S4和S5)。另外,系统控制部70即使在进行了半按下释放开关的操作的情况下也执行曝光调节处理(AE处理)(参照图8的步骤S9和S10)。具体来说,系统控制部70从图像处理部30取得表示图像的亮度分布的亮度分布数据。此时,系统控制部70取得与第一测光区域201对应的图像的亮度分布数据、与第二测光区域202对应的图像的亮度分布数据以及与第三测光区域203对应的图像的亮度分布数据。然后,系统控制部70使用这些的亮度分布数据来进行测光。另外,系统控制部70基于测光的结果来决定摄像条件(快门速度(曝光时间、电荷蓄积时间)、帧频以及增益(ISO感光度)和光圈值。此时,系统控制部70能够针对摄像元件100的摄像区域113A中的每个区块200A,决定达到恰当曝光的摄像条件。此外,针对光圈值,无法对每个区块200A进行设定,而是对摄像区域113A整体进行设定。
系统控制部70向透镜驱动控制装置15发送表示与恰当曝光对应的光圈值的控制信息,由此指示用于调节光圈14的开口直径的驱动控制。另外,系统控制部70向驱动部21输出指示信号,该指示信号指示与恰当曝光对应的快门速度(电荷蓄积时间)、帧频以及增益(ISO感光度)。驱动部21以根据指示信号指示的快门速度、帧频以及增益来驱动控制摄像元件100。
此外,系统控制部70是通过机身侧CPU基于控制程序执行处理来实现的。
此外,在上述的例子中,系统控制部70构成为基于进行了半按下释放开关的操作来进行AF处理,但是系统控制部70也可以在拍摄实时取景图像的过程中以及在拍摄动态图像的过程中进行AF处理。系统控制部70构成为基于在拍摄实时取景图像的过程中以及进行了半按下释放开关的操作来进行AE处理,但是系统控制部70也可以在拍摄动态图像的过程中也进行AE处理。
以下,针对数码相机1的拍摄动作进行说明。图8是用于说明第一实施方式的系统控制部70所进行的拍摄动作的流程图。在图8所示的处理中,在向数码相机1接通电源之后,当使用者为了开始拍摄而操作操作部55等时,系统控制部70对摄像元件100的像素区域113A设定针对每一个区域的摄像条件(步骤S1)。此处,由系统控制部70设定的摄像条件是初始值的摄像条件(控制参数)。具体来说,系统控制部70对各区块200A的第一测光区域201设定实时取景图像中初始值的恰当曝光的摄像条件(预先假设达到恰当曝光的标准的摄像条件)。另外,系统控制部70对各区块200A的第二测光区域202设定初始值的曝光过度的摄像条件(预先假设达到曝光过度的标准的摄像条件)。另外,系统控制部70对各区块200A的第三测光区域203设定初始值的曝光不足的摄像条件(预先假设达到曝光不足的标准的摄像条件)。
曝光过度的摄像条件与恰当曝光的摄像条件相比,电荷蓄积时间更长,增益更高。另外,曝光不足的摄像条件与恰当曝光的摄像条件相比,电荷蓄积时间更短,增益更低。在步骤S1中,系统控制部70还设定光圈值(初始值的光圈值)。系统控制部70向驱动部21输出指示各测光区域201、202和203的摄像条件的指示信号。
以下,系统控制部70开始进行拍摄动作(步骤S2)。即,系统控制部70向驱动部21输出指示信号,由此以在步骤S1中指示的摄像条件来驱动控制摄像元件100。
图9是示出第一实施方式的区块200A内的多个区域201、202和203的电荷蓄积的时间的时序图。如图9所示,驱动部21在第一测光区域201的各像素中在电荷蓄积时间(曝光时间)T1内使蓄积电荷反复执行。另外,驱动部21在第二测光区域202的各像素中在比电荷蓄积时间T1长的电荷蓄积时间T2内使蓄积电荷反复执行。另外,驱动部21在第三测光区域203的各像素中在比电荷蓄积时间T1短的电荷蓄积时间T3内使蓄积电荷反复执行。此外,针对帧频,第一测光区域201、第二测光区域202以及第三测光区域203均相同。通过这种方式,将从摄像元件100的第一测光区域201的各像素读出的像素信号输出至图像处理部30。另外,将从摄像元件100的第二测光区域202的各像素读出的像素信号输出至图像处理部30。另外,将从摄像元件100的第三测光区域203的各像素读出的像素信号输出至图像处理部30。
当开始拍摄时,系统控制部70使显示部50的显示面板51显示由摄像元件100的第一测光区域201拍摄的实时取景图像(步骤S3)。如此,在显示部50的显示面板51上仅显示由第一测光区域201拍摄到的实时取景图像,不显示由第二测光区域202以及第三测光区域203拍摄到的实时取景图像。即,利用第二测光区域202以及第三测光区域203进行的拍摄是为了测光而使用的。
图10是示出第一实施方式的逆光场景500的显示例的图。图10所示的逆光场景500是在显示部50的显示面板51上显示的场景。在逆光场景500中拍摄了人物O1、山、海、云等背景O2和太阳O3。由于太阳O3位于人物O1的后方,所以在逆光下人物O1发黑(blocked-upshadows)。另一方面,太阳O3和反射太阳O3的海面、云等,在顺光下泛白。
以下,系统控制部70设定实时取景图像的曝光(步骤S4)。作为实时取景图像的曝光,当接通电源时,系统控制部70对第一测光区域201、第二测光区域202以及第三测光区域203设定初始值的电荷蓄积时间、增益以及光圈值。另外,作为实时取景图像的曝光,在开始拍摄之后,系统控制部70对第一测光区域201设定通过步骤S5的AE计算处理计算出的恰当曝光的电荷蓄积时间、增益以及光圈值。另外,在开始拍摄之后,系统控制部70对第二测光区域202设定通过步骤S5的AE计算处理计算出的曝光过度的电荷蓄积时间、增益以及光圈值。进一步地,在开始拍摄之后,系统控制部70对第三测光区域203设定通过步骤S5的AE计算处理计算出的曝光不足的电荷蓄积时间、增益以及光圈值。
以下,系统控制部70基于从图像处理部30输出的实时取景图像的亮度分布数据,进行计算实时取景图像的恰当曝光、曝光过度以及曝光不足的AE计算处理(步骤S5)。作为一个例子,系统控制部70相对于区块200A的饱和度(达到泛白的状态的亮度级),将曝光过度设为饱和度的1/2的亮度级,将恰当曝光设为饱和度的1/8的亮度级,将曝光不足设为饱和度的1/32的亮度级。即,系统控制部70将曝光过度设定为恰当曝光的4倍,并且将曝光不足设定为恰当曝光的1/4倍。
另外,系统控制部70基于在区块200A的第一测光区域201中以恰当曝光(1/8的亮度级)的摄像条件(电荷蓄积时间、增益)以及光圈值拍摄到的实时取景图像的亮度分布数据,来修正实时取景图像的恰当曝光。具体来说,系统控制部70可以根据第一测光区域201的测光结果对被拍摄范围整体(显示面板51上显示的实时取景图像整体)进行恰当曝光的修正,也可以对各区块200A(进而对各像素中的每一个)进行恰当曝光的修正。
另外,系统控制部70基于在区块200A的第二测光区域202中以曝光过度(1/2的亮度级)的摄像条件(电荷蓄积时间、增益)以及光圈值拍摄到的图像的亮度分布数据,来修正该图像的曝光过度。具体来说,在以曝光过度(1/2的亮度级)的摄像条件以及光圈值拍摄到的图像发黑的情况下,系统控制部70认为曝光过度过低。在这种情况下,系统控制部70将曝光过度的亮度级阶段性地提高到不再发黑。在图像处理部30基于由第二测光区域202拍摄到的图像进行了面部检测的情况下,系统控制部70只要以使该进行了面部检测的区块200A达到恰当曝光的方式进行修正即可。在这种情况下,系统控制部可以对被拍摄范围整体应用相同的修正量,也可以对每一个区块200A设定修正量,还可以仅对进行了面部检测的区块200A设定修正量。
另外,系统控制部70基于在区块200A的第三测光区域203中以曝光不足(1/32的亮度级)的摄像条件(电荷蓄积时间、增益)以及光圈值拍摄到的图像的亮度分布数据,来修正该图像的曝光不足。具体来说,在以曝光不足(1/32的亮度级)的摄像条件以及光圈值拍摄到的图像泛白(饱和)的情况下,系统控制部70认为曝光不足过高。在这种情况下,系统控制部70将曝光不足的亮度级阶段性地降低到不再泛白。此外,恰当曝光的亮度级也可以是处于曝光过度的亮度级与曝光不足的亮度级中间的亮度级。在这种情况下,系统控制部可以对被拍摄范围整体应用相同的修正量,也可以对每一个区块200A设定修正量。
如此,基于系统控制部70计算出的恰当曝光、曝光过度以及曝光不足的亮度级,系统控制部70在步骤S4中设定实时取景图像的曝光(摄像条件以及光圈值)。此外,图像处理部30根据系统控制部70在步骤S4中设定的实时取景图像的曝光,进行调整实时取景图像的白平衡的处理。
图11是示出逆光场景500的恰当曝光的图像(各区块200A的第一测光区域201的图像)的分布图。在图11所示的分布图中,横轴表示像素的亮度(亮度级、照度和灰度)。横轴的“0”是最暗的(纯黑),越往右变得越亮。横轴的“255”是最亮的(纯白)。纵轴表示该亮度的像素有多少(即,纵轴表示相同亮度的像素数)。在图11所示的分布图中,m1是与人物O1的图像对应的部分。另外,m2是与太阳O3以及其周围的图像对应的部分。如此,在第一测光区域201以恰当曝光的摄像条件进行拍摄的情况下,作为低亮度被拍摄体的人物O1发黑。因此,系统控制部70无法基于人物O1的亮度分布数据来检测亮度级。另外,作为高亮度被拍摄体的太阳O3等泛白。因此,系统控制部70无法基于太阳O3等的亮度分布数据来检测亮度级。
图12是示出逆光场景500的曝光过度的图像(各区块200A的第二测光区域202的图像)的分布图。因此,图12所示的分布图是将图11所示的分布图向右侧移动得到的分布图。在图12所示的分布图中,m3是与人物O1的图像对应的部分。另外,m4是与太阳O3以及其周围的图像对应的部分。如此,在第二测光区域202以曝光过度的摄像条件进行拍摄的情况下,作为低亮度被拍摄体的人物O1不会发黑,能够利用图像处理部30进行面部检测。因此,系统控制部70能够基于如人物O1这样的低亮度被拍摄体的亮度分布数据来检测亮度级。
图13是示出逆光场景500的曝光不足的图像(各区块200A的第三测光区域203的图像)的分布图。因此,图13所示的分布图是将图11所示的分布图向左侧移动得到的分布图。在图13所示的分布图中,m5是与人物O1的图像对应的部分。另外,m6是与太阳O3以及其周围的图像对应的部分。如此,在第三测光区域203以曝光不足的摄像条件进行拍摄的情况下,作为高亮度被拍摄体的太阳O3等不会泛白。因此,系统控制部70针对太阳O3等的高亮度被拍摄体,也能够基于亮度分布数据来检测亮度级。此外,在图11~13中示出了被拍摄范围整体的分布图,但系统控制部70也可以基于各区块200A中的每一个(进而各像素中的每一个)的分布图来检测各区块200A(各像素中的每一个)的亮度级。
返回到图8的说明,系统控制部70判断是否进行了半按下释放开关的操作(SW1的操作)(步骤S6)。系统控制部70重复进行步骤S2~步骤S5的处理直到进行了半按下释放开关的操作为止。系统控制部70在判断为进行了半按下释放开关的操作的情况下,设定在AF处理中所使用的蓄积条件(步骤S7)。然后,系统控制部70基于以在步骤S7中设定的AF用的蓄积条件而拍摄到的主要被拍摄体像的对比度的评估值,根据对比度AF进行AF处理(步骤S8)。
具体来说,系统控制部70从图像处理部30取得对比度信号,该对比度信号呈现出摄像部20以在步骤S7中设定的摄像条件(恰当曝光的摄像条件、曝光过度的摄像条件或者曝光不足的摄像条件)以及光圈值拍摄到的主要被拍摄体像的对比度的评估值。系统控制部70一边使调焦用透镜11c移动,一边基于来自图像处理部30的对比度信号,检测主要被拍摄体像的对比度最高的调焦用透镜11c的位置来作为焦点位置。系统控制部70向透镜驱动控制装置15发送控制信号,以使调焦用透镜11c移动至所检测到的焦点位置。
接着,系统控制部70设定实时取景图像的曝光(步骤S9),并且执行AE计算处理(步骤S10)。步骤S9以及S10的处理相当于步骤S4以及S5的处理。即,系统控制部70在进行了半按下释放开关的操作的情况下,还基于来自第一测光区域201、第二测光区域202以及第三测光区域203的图像数据来检测实时取景图像的亮度级。然后,系统控制部70基于实时取景图像的亮度级,来设定第一测光区域201、第二测光区域202以及第三测光区域203的摄像条件。
然后,系统控制部70判断是否进行了完全按下释放开关的操作(SW2的操作)(步骤S11)。在系统控制部70判断为没有进行完全按下释放开关的操作的情况下,重复进行从上述的步骤S6到步骤S10的处理。在系统控制部70判断为进行了完全按下释放开关的操作的情况下,系统控制部70对摄像元件100的全部像素区域113A设定摄影用的摄像条件(步骤S12)。摄影用的摄像条件是在步骤S13中进行本次拍摄时的摄像条件。系统控制部70基于在步骤S10的AE计算处理中计算出的恰当曝光、曝光过度以及曝光不足的亮度级,来决定适合于被拍摄体的各区块200A的摄像条件。然后,系统控制部70设定各区块200A的摄像条件来作为摄影用的摄像条件。系统控制部70向驱动部21输出指示摄影用的摄像条件的指示信号。
然后,系统控制部70进行摄像处理(步骤S13)。即,系统控制部70向摄像部20输出指示摄像的指示信号。驱动部21以摄影用的摄像条件驱动控制摄像元件100来执行拍摄。此时,区块200A的各像素利用相同摄像条件进行拍摄。即,在区块200A中没有设定第一测光区域201、第二测光区域202以及第三测光区域203,一个区块200A以相同摄像条件进行拍摄。
如以上说明的那样,在第一实施方式中,具有:摄像元件100,其在第一区域(某个区块200)和第二区域(其他区块)接受来自被拍摄体的光束,并能够以不同的条件对第一区域和第二区域进行拍摄;以及控制部70,至少在第一区域中针对第一处理(例如AE处理)利用多个摄像条件来控制拍摄。根据这样的结构,能够在一个区域(至少第一区域)利用多个摄像条件进行拍摄,由此进行高精度的测光。其结果,控制部70能够拍摄动态范围宽的图像。另外,图像处理部30使用利用多个摄像条件拍摄到的图像,能够高精度地判断荧光灯或者LED等光源,从而提高各种图像处理的精度。
另外,在第一实施方式中,控制部70对于与第一处理(例如AE处理)不同的第二处理(例如AF处理),利用多个摄像条件来控制拍摄。根据这样的结构,控制部70能够以使被拍摄体像的对比度的评估值变高的摄像条件进行拍摄。因此,AF处理中的焦点位置调节的精度得到提高。
另外,在第一实施方式中,控制部70以与多个摄像条件对应的摄像面积来控制拍摄。根据这样的结构,例如能够针对以恰当曝光的摄像条件进行拍摄的区域201设置较大的摄像面积;针对以曝光过度或者曝光不足的摄像条件进行拍摄的区域202、203能够设置较小的摄像面积。
另外,在第一实施方式中,控制部70根据第一区域的饱和度来设定多个摄像条件。根据这样的结构,能够设定适合于被拍摄体的多个摄像条件,例如恰当曝光的摄像条件、曝光过度的摄像条件以及曝光不足的摄像条件。另外,在第一实施方式中,第一处理是与曝光有关的处理,控制部70根据在多个摄像条件下进行的拍摄来设定曝光。根据这样的结构,能够在较宽的亮度范围内进行测光。
另外,在第一实施方式中,第一处理是与曝光有关的处理,控制部70至少在第一区域上根据3个曝光条件(恰当曝光的曝光条件、曝光过度的曝光条件和曝光不足的曝光条件)来控制拍摄。根据这样的结构,能够使用既不泛白也不发黑的图像来取得宽范围的灰度的图像。
<第二实施方式>
在上述的第一实施方式中,在区块200A中离散地形成有第二测光区域202以及第三测光区域203。与此相对,在第二实施方式中,第一测光区域、第二测光区域以及第三测光区域分别形成为行方向上的线状。
图14是示出第二实施方式的区块200B内的多个区域211、212和213的图。图14所示的区块200B与图5的局部放大图所示的区块200A对应。即,区块200B是设于像素区域113A的某一个区块。如图14所示,第一测光区域211是从3的倍数行向前数两行的行(3m-2)的区域。第二测光区域212是从3的倍数行向前数一行的行(3m-1)的区域。第三测光区域213是3的倍数行(3m)的区域。m是正整数(m=1,2,3,……)。在图14所示的例子中,第一测光区域211、第二测光区域212以及第三测光区域213的面积相同。但是,第一测光区域211、第二测光区域212以及第三测光区域213的面积也可以不同。
第一测光区域211设定有达到恰当曝光的摄像条件。第二测光区域212设定有达到曝光过度的摄像条件。第三测光区域213设定有达到曝光不足的摄像条件。如此,第二实施方式的摄像元件100也能够针对多个区块200B中的每一个以不同的摄像条件进行拍摄并输出像素信号,并且还能够针对各区块200B的多个测光区域的每一个以不同的摄像条件进行拍摄并输出像素信号。
图15是示出第二实施方式的逆光场景510的显示例以及对比度AF区域511的图。图15所示的逆光场景510与图10所示的逆光场景500同样是显示于显示部50的显示面板51上的场景。在逆光场景510中也拍摄有作为主要被拍摄体的人物O1、山、海、云等背景O2和太阳O3。由于太阳O3位于人物O1的后方,所以在逆光下人物O1发黑。另一方面,太阳O3和反射太阳O3的海面、云等在顺光下泛白。对比度AF区域511是基于对比度AF检测了焦点位置的图像(被拍摄体)的区域。在图15所示的例子中,对比度AF区域511是人物O1的面部部分的区域。
在图像处理部30计算被拍摄体像的对比度的评估值的情况下,高通滤光片提取被拍摄体像的高频成分。高通滤光片的检波方向最好是被拍摄体像以相同的摄像条件来拍摄。例如在高通滤光片在水平方向上检波的情况下,最好在摄像元件100的行方向上设定相同的摄像条件。因为这个原因,与高通滤光片在水平方向上检波对应地,如图14所示,在区块200B中,第一测光区域211、第二测光区域212以及第三测光区域213分别形成为多个行方向上的线状的区域。
另外,图像处理部30使用公知的面部检测功能,检测人物O1的面部,将该面部的部分设置为对比度AF区域511。高通滤光片对对比度AF区域511在水平方向上进行检波。
图16是示出逆光场景510的恰当曝光的图像的焦点评估值与透镜位置的关系的曲线图。在图8的步骤S7中,在系统控制部70设定恰当曝光来作为AF用的蓄积条件的情况下,被拍摄体像的对比度的评估值(焦点评估值)与摄影光学系统11的透镜位置的关系成为如图16所示的关系。如图15所示,在人物O1和背景O2进入对比度AF区域511的情况下,在逆光下变暗的人物O1的评估值几乎不出现,仅检测出背景O2的评估值。
图17是示出逆光场景510的曝光过度的图像的焦点评估值与透镜位置的关系的曲线图。在图8的步骤S7中,在系统控制部70设定曝光过度来作为AF用的蓄积条件的情况下,被拍摄体像的对比度的评估值(焦点评估值)与摄影光学系统11的透镜位置的关系成为如图17所示的关系。就基于第二测光区域202在曝光过度下拍摄出的图像数据的评估值而言,在逆光下变暗的人物O1的评估值的顶点(峰值)出现在极近侧。因此,系统控制部70即使在人物O1在逆光下变暗的情况下,也能够在AF处理(步骤S8)中检测出与人物O1对应的透镜位置(焦点位置)。
如此,在通过改变AF用的蓄积条件而新出现了评估值的顶点(峰值)的情况下,系统控制部70只要将新出现的顶点(峰值)作为主要被拍摄体,进行AF控制以使调焦用透镜11C聚焦于该主要被拍摄体即可。另外,系统控制部70也可以基于检测到该主要被拍摄体的AF用的摄像条件来进行本次摄影用的AE计算。
此外,在主要被拍摄体像泛白,主要被拍摄体像的对比度的评估值未出现的情况下,系统控制部70设定曝光过度来作为AF用的曝光。通过这种方式,针对泛白的主要被拍摄体也能够高精度地检测焦点位置。
如此,在第二实施方式中,第二处理是与焦点调节有关的处理,控制部70根据在多个摄像条件下进行的拍摄来决定主要被拍摄体。根据这样的结构,针对在逆光下变暗的主要被拍摄体或者在顺光下泛白的主要被拍摄体,都能够高精度地检测焦点位置。
<第三实施方式>
在上述的第二实施方式中,系统控制部70使用对比度AF进行了AF处理,而在第三实施方式中,系统控制部70使用相位差AF来进行AF处理。
图18是示出第三实施方式的逆光场景520的显示例以及相位差AF区域521、522和523的图。图18所示的逆光场景520与图10所示的逆光场景500同样是显示于显示部50的显示面板51上的场景。在逆光场景520中也拍摄有作为主要被拍摄体的人物O1、山、海、云等背景O2和太阳O3。由于太阳O3位于人物O1的后方,所以在逆光下人物O1发黑。另一方面,太阳O3和反射太阳O3的海面、云等在顺光下泛白。相位差AF区域521、522和523是根据相位差AF来检测焦点位置的区域。在图18所示的例子中,在逆光场景520的水平方向上设有3条线状的相位差AF区域521、522和523。在摄像元件100的像素区域113A中,在与逆光场景520的相位差AF区域521、522和523对应的位置,分别形成有第一测光区域、第二测光区域以及第三测光区域。另外,在第一测光区域、第二测光区域以及第三测光区域中设有相位差检测用像素(参照图19)。
图19是示出第三实施方式的区块200C内的多个区域221、222和223的图。图19所示的区块200C是构成与逆光场景520上的一条相位差AF区域(例如相位差AF区域521)对应的像素区域113A上的相位差AF区域(未图示)的一个区块。即,图19所示的区块200C配置于行方向上,由此在像素区域113A上构成一条相位差AF区域。而且,与像素区域113A上的一条相位差AF区域对应的逆光场景520上的区域是一条相位差AF区域(例如相位差AF区域521)。
如图19所示,区块200C由多个像素构成。在由最上方一行的像素构成的第一测光区域221中设有检测相位差的相位差检测用像素301、302。另外,在由最下方一行的像素构成的第二测光区域222中也设有相位差检测用像素301、302。另外,在由中间的一行的像素构成的第三测光区域223中也设有相位差检测用像素301、302。另外,在区块200C中除了第一测光区域221、第二测光区域222以及第三测光区域223以外的区域224中设置的像素是进行通常拍摄的像素。
第一测光区域221设定有达到恰当曝光的摄像条件。第二测光区域222设定有达到曝光过度的摄像条件。第三测光区域223设定有达到曝光不足的摄像条件。如此,第二实施方式的摄像元件100中的多个区块200B中的每一个也能够以不同的摄像条件来进行拍摄并输出像素信号,并且各区块200B中的多个测光区域中的每一个都能够以不同的摄像条件来进行拍摄并输出像素信号。
在相位差检测用像素301、302检测相位差的情况下,为了维持焦点检测的精度,最好针对每个光瞳分割方向上的像素组(第一测光区域221、第二测光区域222和第三测光区域223)以相同的摄像条件来拍摄被拍摄体像。例如,在为在水平方向上进行了光瞳分割的相位差检测用像素301、302的情况下,最好在摄像元件100的行方向上设定相同的摄像条件。因此,如图19所示,在2000c中,作为行方向上的线状的区域而分别形成有第一测光区域221、第二测光区域222以及第三测光区域223,在这些第一测光区域221、第二测光区域222以及第三测光区域223上设有相位差检测用像素301、302。
由于相位差检测用像素301、302利用从成像光学系统不同的出射光瞳区域通过的光束来得到被拍摄体像,所以感光度受到限制。因此,相位差检测用像素301、302与通常的像素相比,感光度较低。因此,系统控制部70以使对第一测光区域221设定的恰当曝光比通常像素的恰当曝光高的方式进行设定。另外,系统控制部70以使对第二测光区域222设定的曝光过度比通常的像素的曝光过度高的方式进行设定。另外,系统控制部70以使对第三测光区域223设定的曝光不足比通常的像素的曝光不足高的方式进行设定。
根据这样的结构,逆光场景520下的发黑的人物O1的亮度级不会因相位差检测用像素301、302的低感光度而进一步降低。另外,系统控制部70取得基于利用第二测光区域222的相位差检测用像素301、302拍摄到的图像数据的亮度分布数据,取得基于利用第三测光区域223的相位差检测用像素301、302拍摄到的图像数据的亮度分布数据。因此,能够防止在低亮度被拍摄体(人物O1)的亮度分布数据或者高亮度被拍摄体(太阳O3)的亮度分布数据中发生发黑或者泛白,能够对很宽的亮度范围的被拍摄体进行测距。
如上,在第三实施方式中,控制部70基于在第一摄像条件下的拍摄与在第二摄像条件下的拍摄之差(相位差),来决定主要被拍摄体(例如人物O1)。根据这样的结构,能够决定很宽的亮度范围的主要被拍摄体。
<第四实施方式>
在上述的第一实施方式中,不对各个被拍摄体变更摄像条件,在第四实施方式中,针对每个被拍摄体改变摄像条件。
图20是示出第四实施方式的区块200D内的多个区域251、252和253的图。图20所示的区块200D与图5的局部放大图所示的区块200A对应。即,区块200D是设于像素区域113A的某一个区块。如图20所示,在区块200D中以成为方格图案的方式配置有第一测光区域251、第二测光区域252以及第三测光区域253(即,第一测光区域251、第二测光区域252以及第三测光区域253离散且均等地配置于区块200D)。在图20所示的例子中,第一测光区域251、第二测光区域252以及第三测光区域253的面积相同。但是,第一测光区域251、第二测光区域252以及第三测光区域253的面积也可以不同。
第一测光区域251设定有达到恰当曝光的摄像条件。第二测光区域252设定有达到曝光过度的摄像条件。第三测光区域253设定有达到曝光不足的摄像条件。如此,第四实施方式的摄像元件100中的多个区块200D中的每一个都能够以不同的摄像条件进行拍摄并输出像素信号,并且各区块200D中的多个测光区域中的每一个也都能够以不同的摄像条件进行拍摄并输出像素信号。
图21是用于说明第四实施方式的系统控制部所执行的拍摄动作的流程图。此外,在图21中,步骤S1~S4、S6~S9、S11以及S13的处理与图8所示的处理是同样的。因此,省略重复的说明。在图21所示的处理中,系统控制部70取得表示图像处理部30检测到的每个被拍摄体的位置的位置信号。然后,系统控制部70基于来自图像处理部30的位置信号(例如利用区块单位来确定被拍摄体的位置的信号),识别被拍摄体区域(与被拍摄体对应的区块),对各个被拍摄体区域进行AE计算处理(步骤S5A)。作为实时取景图像的曝光,系统控制部70设定对于每个被拍摄体区域来说都不同且对于每个测光区域251、252和253都不同的摄像条件(步骤S4)。
然后,系统控制部70合成针对每个被拍摄体区域的图像数据(步骤S21)。图22是示出第四实施方式的逆光场景530的显示例的图。在图22所示的逆光场景530中拍摄有逆光的人物O4、背景O5和街灯O6。图22所示的逆光场景530是系统控制部70在步骤S21合成之前的实时取景图像。图23是示出第四实施方式的逆光场景540的合成图像的显示例的图。在图23所示的逆光场景540中拍摄有逆光的人物O4、背景O5和街灯O6。图23所示的逆光场景540是系统控制部70在步骤S21中将每个被拍摄体区域的图像合成而得到的合成图像。该逆光场景540与图22的逆光场景530不同,是防止发黑的图像。
通常,作为用于记录并显示很宽的动态范围的图像的图像合成技术,而广泛已知有HDR(HighDynamicRange;高动态范围)摄像。HDR摄像一边使摄像条件(例如曝光)变化,一边拍摄多张图像,将它们合成,由此生成很少泛白或者发黑的图像。但是,就以往的HDR而言,由于拍摄例如摄像条件不同的两张图像的拍摄时间不同,所以有时被拍摄体会移动,或者使用者(摄影者)会移动数码相机1。在这种情况下,由于多张图像不是相同的被拍摄体的图像,所以难以进行图像合成。与此相对,在第四实施方式中,能够将摄像条件不同的多张图像的拍摄时间设置在相同时刻(或者大致相同时刻)(参照图9)。因此,根据第四实施方式的结构能够解决以往的HDR摄像的问题。在步骤S21中,系统控制部70合成每一个被拍摄体区域的图像,由此能够显示动态范围宽的实时取景图像。
返回至图21的说明,系统控制部70在进行步骤S9之后,基于来自图像处理部30的位置信号,识别被拍摄体区域(与被拍摄体对应的区块),对各个被拍摄体区域进行AE计算处理(步骤S10A)。作为实时取景图像的曝光,系统控制部70设定针对每个被拍摄体区域不同、且针对每个测光区域251、252和253不同的摄像条件(步骤S9)。此外,由于步骤S10A的处理与步骤S5A的处理同样,所以省略说明。系统控制部70根据完全按下释放开关的操作(步骤S11的是(YES)),来对每一个被拍摄体区域设定不同的摄影用的摄像条件(步骤S12A)。然后,系统控制部70进行摄像处理(步骤S13)。由摄像处理拍摄到的图像(静态图像)如图23所示是防止发黑的图像。
如上所述,在第四实施方式中,控制部70以使利用多个摄像条件的拍摄时间(电荷蓄积时间)的一部分重叠的方式来控制摄像元件100。根据这样的结构,控制部70能够容易地合成图像,能够显示动态范围较宽的图像。
<第五实施方式>
在第五实施方式中,将上述的第一实施方式中的数码相机1的照相机机身2分为摄像装置1A和电子设备1B。
图24是示出第五实施方式的摄像装置1A以及电子设备1B的结构的框图。在图24所示的结构中,摄像装置1A是拍摄被拍摄体的装置。该摄像装置1A具有透镜部10、摄像部20、图像处理部30、工作存储器40、操作部55、记录部60以及第一系统控制部70A。此外,摄像装置1A中的透镜部10、摄像部20、图像处理部30、工作存储器40、操作部55以及记录部60的结构与图7所示的结构是同样的。因此,对相同结构标记上相同附图标记,并省略重复的说明。
另外,电子设备1B是显示图像(静态图像、动态图像和实时取景图像)的装置。该电子设备1B具有显示部50以及第二系统控制部(控制部)70B。此外,电子设备1B中的的显示部50的结构与图7所示的结构是同样的。因此,对相同结构标记上相同附图标记,并省略重复的说明。
第一系统控制部70A具有第一通信部75A。另外,第二系统控制部70B具有第二通信部75B。第一通信部75A与第二通信部75B相互通过有线或者无线方式来发送接收信号。在如这样的结构中,第一系统控制部70A经由第一通信部75A向第二通信部75B发送图像数据(图像处理部30进行了图像处理的图像数据、记录部60所记录的图像数据)。第二系统控制部70B使显示部50显示第二通信部75B所接收的图像数据。另外,第二系统控制部70B使第二显示部53显示预先设定的菜单图像。
另外,第二系统控制部70B根据使用者对触摸面板52的触摸操作,或者自动地控制变更摄像条件(包含蓄积条件)。另外,第二系统控制部70B根据使用者对触摸面板52的触摸操作或者自动地对选择图像显示区域510内的各显示区域进行控制。另外,第一系统控制部70A根据使用者对操作部(设于电子设备1B侧的指示开始拍摄静态图像或者动态图像的的操作部)55的操作来控制拍摄。
图7所示的结构(划分部71、驱动控制部72、控制部73以及闪烁检测部74)也可以设于第一系统控制部70A和第二系统控制部70B中的某一方。可以是图7所示的全部结构设于第一系统控制部70A或者第二系统控制部70B;另外也可以是图7所示的结构的一部分设于第一系统控制部70A,而图7所示的结构中除了该一部分以外的结构设于第二系统控制部70B。
此外,摄像装置1A由例如具有摄像功能和通信功能的数码相机、智能手机、便携电话或个人电脑等构成,电子设备1B由例如具有通信功能的智能手机、便携电话或便携式个人电脑等便携终端构成。
图24所示的第一系统控制部70A是通过机身侧CPU基于控制程序执行处理来实现的。另外,图24所示的第二系统控制部70B是通过机身侧CPU基于控制程序执行处理来实现的。
如以上说明地,在第五实施方式中,在第一实施方式中说明了的效果的基础上,还能够在使用智能手机等便携终端确认由摄像装置1A正在拍摄的多个实时取景图像之后进行拍摄。
此外,在图24所示的结构中,图像处理部30与第一系统控制部70A也可以一体地构成。在这种情况下,具有一个或者多个CPU的系统控制部基于控制程序进行处理,由此发挥图像处理部30的功能和第一系统控制部70的功能。
以上,使用实施方式说明了本发明,但是本发明的技术范围并不限定于上述实施方式所记载的范围。在不脱离本发明的主旨的范围内,能够对上述实施方式施加各种各样的变更或者改良。另外,有时会省略在上述的实施方式中说明的一个以上要件。这样的变更或者改良、省略的实施方式也包含于本发明的技术的范围内。另外,上述的实施方式和变形例的结构还能够适当组合来应用。
在上述的各实施方式中,彩色滤光片102的排列采用了拜耳阵列,但是也可以采用这种排列以外的排列。另外,形成单位组131的像素的数量只要包含至少一个像素即可。另外,区块也是只要包含至少一个像素即可。因此,还能够针对每一个像素以不同的摄像条件执行拍摄。
另外,在上述各实施方式中,可以是驱动部21的一部分或全部的结构搭载在摄像芯片113上,也可以是一部分或全部的结构搭载在信号处理芯片111上。另外,图像处理部30的一部分结构也可以搭载在摄像芯片113或信号处理芯片111上。另外,系统控制部70的一部分结构也可以搭载在摄像芯片113或信号处理芯片111上。
另外,在上述各实施方式中,作为系统控制部70能够设定的摄像条件,不限于增益、电荷蓄积时间(曝光时间或者快门速度)和帧频,也可以是其他控制参数。另外,仅针对自动地设定摄像条件的情况进行了说明,但是也可以根据使用者对操作部55等的操作来进行设定。
另外,在上述的各实施方式中,针对区块的区域的大小是预先设定的情况进行了说明,但是也可以是使用者设定区块的区域的大小。
上述的各实施方式中的数码相机1也可以由例如具有摄像功能的数码相机、智能手机、便携电话、个人电脑等设备构成。
附图标记说明
1数码相机(电子设备),1A摄像装置(电子设备),1B电子设备,11摄影光学系统,20摄像部,30图像处理部,50显示部,51显示面板,55操作部,70系统控制部(控制部),70A第1系统控制部(控制部),70B第二系统控制部(控制部),100摄像元件。

Claims (15)

1.一种电子设备,其特征在于,具有:
摄像元件,其在第一受光区域和第二受光区域利用不同的摄像条件进行拍摄;以及
控制部,其利用根据在所述第一受光区域和所述第二受光区域进行的拍摄而求出的摄像条件,控制拍摄。
2.如权利要求1所述的电子设备,其特征在于,
所述摄像条件是曝光条件,
所述控制部利用根据在所述第一受光区域和所述第二受光区域进行的拍摄而求出的曝光条件,控制拍摄。
3.如权利要求2所述的电子设备,其特征在于,
所述控制部利用根据在所述第一受光区域和所述第二受光区域进行的拍摄而求出的曝光条件,控制焦点调节。
4.如权利要求3所述的电子设备,其特征在于,
所述控制部使用对比度自动对焦来控制焦点调节。
5.如权利要求3所述的电子设备,其特征在于,
所述控制部使用相位差自动对焦来控制焦点调节。
6.如权利要求1所述的电子设备,其特征在于,
所述控制部根据所述第一受光区域和所述第二受光区域的拍摄,求出控制拍摄的曝光条件。
7.一种电子设备,其特征在于,具有:
摄像元件,其在第一区域和第二区域接受来自被拍摄体的光束,并能够利用不同的条件对所述第一区域和所述第二区域进行拍摄;以及
控制部,其至少在所述第一区域,针对第一处理利用多个摄像条件来控制拍摄。
8.如权利要求7所述的电子设备,其特征在于,
所述控制部针对与所述第一处理不同的第二处理利用多个摄像条件来控制拍摄。
9.如权利要求7或8所述的电子设备,其特征在于,
所述控制部以使基于所述多个摄像条件的拍摄时间的一部分重叠的方式来控制所述摄像元件。
10.如权利要求7~9中任一项所述的电子设备,其特征在于,
所述控制部以与所述多个摄像条件对应的摄像面积来控制拍摄。
11.如权利要求7~10中任一项所述的电子设备,其特征在于,
所述控制部与所述第一区域的饱和度对应地来设定所述多个摄像条件。
12.如权利要求7~11中任一项所述的电子设备,其特征在于,
所述第一处理是与曝光有关的处理,
所述控制部与所述多个摄像条件下的拍摄对应地来设定曝光。
13.如权利要求7~12中任一项所述的电子设备,其特征在于,
所述第一处理是与曝光有关的处理,
所述控制部至少在第一区域利用3个曝光条件来控制拍摄。
14.如权利要求7~13中任一项所述的电子设备,其特征在于,
所述第二处理是与焦点调节有关的处理,
所述控制部与多个摄像条件下的拍摄对应地来设定主要被拍摄体。
15.如权利要求14所述的电子设备,其特征在于,
所述控制部基于第一摄像条件下的拍摄和第二摄像条件下的拍摄之差,来决定所述主要被拍摄体。
CN201480060312.XA 2013-10-01 2014-09-30 电子设备 Active CN105684421B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910663234.7A CN110418057A (zh) 2013-10-01 2014-09-30 电子设备

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013206434 2013-10-01
JP2013-206434 2013-10-01
PCT/JP2014/076065 WO2015050118A1 (ja) 2013-10-01 2014-09-30 電子機器

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201910663234.7A Division CN110418057A (zh) 2013-10-01 2014-09-30 电子设备

Publications (2)

Publication Number Publication Date
CN105684421A true CN105684421A (zh) 2016-06-15
CN105684421B CN105684421B (zh) 2021-04-09

Family

ID=52778706

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201910663234.7A Pending CN110418057A (zh) 2013-10-01 2014-09-30 电子设备
CN201480060312.XA Active CN105684421B (zh) 2013-10-01 2014-09-30 电子设备

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201910663234.7A Pending CN110418057A (zh) 2013-10-01 2014-09-30 电子设备

Country Status (5)

Country Link
US (1) US10958848B2 (zh)
EP (1) EP3054667A4 (zh)
JP (2) JPWO2015050118A1 (zh)
CN (2) CN110418057A (zh)
WO (1) WO2015050118A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107071260A (zh) * 2016-11-29 2017-08-18 努比亚技术有限公司 一种拍摄装置和方法,及终端设备
CN110945861A (zh) * 2017-07-07 2020-03-31 株式会社半导体能源研究所 显示系统及显示系统的工作方法
CN112637479A (zh) * 2019-09-24 2021-04-09 佳能株式会社 控制设备、摄像设备、控制方法和存储介质

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111787246B (zh) * 2013-11-26 2023-07-14 株式会社尼康 摄像元件及摄像装置
JP6146293B2 (ja) * 2013-12-25 2017-06-14 ソニー株式会社 制御装置、制御方法および制御システム
JP6520035B2 (ja) * 2014-09-30 2019-05-29 株式会社ニコン 電子機器
JP6613554B2 (ja) * 2014-09-30 2019-12-04 株式会社ニコン 画像処理装置およびプログラム
KR102368625B1 (ko) * 2015-07-23 2022-03-02 삼성전자주식회사 디지털 촬영 장치 및 그 방법
CN105472266A (zh) 2015-12-18 2016-04-06 广东欧珀移动通信有限公司 高动态范围图像的生成方法、拍照装置和终端
JP2017162985A (ja) * 2016-03-09 2017-09-14 キヤノン株式会社 撮像装置
JP6596736B2 (ja) * 2016-03-29 2019-10-30 本田技研工業株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US10158797B2 (en) * 2017-03-31 2018-12-18 Motorola Mobility Llc Combining images when a face is present
US20190052803A1 (en) * 2017-08-09 2019-02-14 Canon Kabushiki Kaisha Image processing system, imaging apparatus, image processing apparatus, control method, and storage medium
US10757342B1 (en) * 2018-04-25 2020-08-25 Snap Inc. Image device auto exposure
CN112740090B (zh) * 2018-07-20 2022-08-12 株式会社尼康 焦点检测装置、拍摄装置以及可更换镜头
JP7309420B2 (ja) * 2019-04-02 2023-07-18 キヤノン株式会社 撮像装置
CN113225485B (zh) * 2021-03-19 2023-02-28 浙江大华技术股份有限公司 图像采集组件、融合方法、电子设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060103745A1 (en) * 2004-11-08 2006-05-18 Yuji Nagaishi Image sensor and image sensor system
US20070195182A1 (en) * 2006-02-21 2007-08-23 Olympus Corporation Imaging apparatus for setting image areas having individual frame rates
US20070253695A1 (en) * 2006-04-28 2007-11-01 Hiroshi Miyazawa Imaging apparatus
CN101233440A (zh) * 2005-06-24 2008-07-30 诺基亚公司 利用滚动快门的自适应光平面形成
US20090174784A1 (en) * 2008-01-08 2009-07-09 Karlsson Sven-Olof Camera having digital gray filtering and method of providing same
US20100231738A1 (en) * 2009-03-11 2010-09-16 Border John N Capture of video with motion
CN102104738A (zh) * 2009-12-18 2011-06-22 三星电子株式会社 利用电子快门的多级曝光图像获取方法及拍摄装置
US20110228053A1 (en) * 2010-03-18 2011-09-22 Fujifilm Corporation Stereoscopic imaging apparatus

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3270253B2 (ja) * 1994-09-12 2002-04-02 オリンパス光学工業株式会社 カメラ
US7709777B2 (en) * 2003-06-16 2010-05-04 Micron Technology, Inc. Pumps for CMOS imagers
JP4349232B2 (ja) 2004-07-30 2009-10-21 ソニー株式会社 半導体モジュール及びmos型固体撮像装置
JP4799247B2 (ja) 2006-03-30 2011-10-26 三星電子株式会社 撮像装置および撮像方法
JP2009049858A (ja) * 2007-08-22 2009-03-05 Canon Inc 撮像装置
JP2010016621A (ja) 2008-07-03 2010-01-21 Sony Corp 画像データ処理装置と画像データ処理方法およびプログラムと記録媒体
US8295601B2 (en) * 2009-08-12 2012-10-23 Hand Held Products, Inc. Indicia reading terminal having multiple exposure periods and methods for same
JP5523143B2 (ja) * 2010-02-25 2014-06-18 オリンパスイメージング株式会社 撮像装置及び自動焦点調節方法
JP5791274B2 (ja) * 2010-12-20 2015-10-07 キヤノン株式会社 画像処理装置、方法及びプログラム
JP5653207B2 (ja) 2010-12-27 2015-01-14 アルパイン株式会社 消費電力制御システム
JP2012182657A (ja) * 2011-03-01 2012-09-20 Sony Corp 撮像装置、および撮像装置制御方法、並びにプログラム
JP2013005017A (ja) * 2011-06-13 2013-01-07 Sony Corp 撮像装置、および撮像装置制御方法、並びにプログラム
US8599284B2 (en) * 2011-10-11 2013-12-03 Omnivision Technologies, Inc. High dynamic range sub-sampling architecture
US8723095B2 (en) * 2012-02-16 2014-05-13 Aptina Imaging Corporation Method and apparatus for ambient light detection including plural image pixels and at least one dark pixel
JP2013192058A (ja) * 2012-03-14 2013-09-26 Nikon Corp 撮像装置
US20140063300A1 (en) * 2012-09-06 2014-03-06 Aptina Imaging Corporation High dynamic range imaging systems having clear filter pixel arrays
JP6103526B2 (ja) * 2013-03-15 2017-03-29 オリンパス株式会社 撮影機器,画像表示機器,及び画像表示機器の表示制御方法
JP6112960B2 (ja) * 2013-05-08 2017-04-12 キヤノン株式会社 光電変換装置
WO2015038569A2 (en) * 2013-09-10 2015-03-19 Rambus Inc. Oversampled image sensor with conditional pixel readout
JP6257245B2 (ja) * 2013-09-27 2018-01-10 キヤノン株式会社 撮像装置及びその制御方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060103745A1 (en) * 2004-11-08 2006-05-18 Yuji Nagaishi Image sensor and image sensor system
CN101233440A (zh) * 2005-06-24 2008-07-30 诺基亚公司 利用滚动快门的自适应光平面形成
US20070195182A1 (en) * 2006-02-21 2007-08-23 Olympus Corporation Imaging apparatus for setting image areas having individual frame rates
US20070253695A1 (en) * 2006-04-28 2007-11-01 Hiroshi Miyazawa Imaging apparatus
US20090174784A1 (en) * 2008-01-08 2009-07-09 Karlsson Sven-Olof Camera having digital gray filtering and method of providing same
US20100231738A1 (en) * 2009-03-11 2010-09-16 Border John N Capture of video with motion
CN102104738A (zh) * 2009-12-18 2011-06-22 三星电子株式会社 利用电子快门的多级曝光图像获取方法及拍摄装置
US20110228053A1 (en) * 2010-03-18 2011-09-22 Fujifilm Corporation Stereoscopic imaging apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107071260A (zh) * 2016-11-29 2017-08-18 努比亚技术有限公司 一种拍摄装置和方法,及终端设备
CN110945861A (zh) * 2017-07-07 2020-03-31 株式会社半导体能源研究所 显示系统及显示系统的工作方法
CN110945861B (zh) * 2017-07-07 2022-11-29 株式会社半导体能源研究所 显示系统及显示系统的工作方法
US11676547B2 (en) 2017-07-07 2023-06-13 Semiconductor Energy Laboratory Co., Ltd. Display system and operation method of the display system
CN112637479A (zh) * 2019-09-24 2021-04-09 佳能株式会社 控制设备、摄像设备、控制方法和存储介质
CN112637479B (zh) * 2019-09-24 2023-11-07 佳能株式会社 控制设备、摄像设备、控制方法和存储介质

Also Published As

Publication number Publication date
JP2019205177A (ja) 2019-11-28
CN110418057A (zh) 2019-11-05
EP3054667A1 (en) 2016-08-10
EP3054667A4 (en) 2017-11-15
WO2015050118A1 (ja) 2015-04-09
CN105684421B (zh) 2021-04-09
JP6780745B2 (ja) 2020-11-04
JPWO2015050118A1 (ja) 2017-03-09
US20160316132A1 (en) 2016-10-27
US10958848B2 (en) 2021-03-23

Similar Documents

Publication Publication Date Title
CN105684421A (zh) 电子设备
CN110086980B (zh) 电子设备
CN110365899B (zh) 电子设备
US11641522B2 (en) Image-capturing device and image processing device
JP6090425B2 (ja) 撮像素子および電子機器
CN105324985A (zh) 电子设备、电子设备的控制方法及控制程序
CN105637856A (zh) 电子设备、电子设备的控制方法以及控制程序
JP6354246B2 (ja) 撮像装置、撮像装置の制御方法、及び制御プログラム
US10757341B2 (en) Electronic device, imaging device, and imaging element
US12075169B2 (en) Image sensor and imaging device
EP2975839B1 (en) Image-capturing unit, image-capturing device, and image-capture control program
JP2014179778A (ja) 信号処理装置、撮像素子、撮像装置および電子機器
JP2014179781A (ja) 撮像ユニット、撮像装置および撮像制御プログラム
JP6349659B2 (ja) 電子機器、電子機器の制御方法、及び制御プログラム
JP2020108158A (ja) 電子機器
JP2018157602A (ja) 撮像装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant