[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7113289B2 - Imaging device, imaging method and program - Google Patents

Imaging device, imaging method and program Download PDF

Info

Publication number
JP7113289B2
JP7113289B2 JP2018060959A JP2018060959A JP7113289B2 JP 7113289 B2 JP7113289 B2 JP 7113289B2 JP 2018060959 A JP2018060959 A JP 2018060959A JP 2018060959 A JP2018060959 A JP 2018060959A JP 7113289 B2 JP7113289 B2 JP 7113289B2
Authority
JP
Japan
Prior art keywords
light receiving
pixel
light
pixel data
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018060959A
Other languages
Japanese (ja)
Other versions
JP2019176280A5 (en
JP2019176280A (en
Inventor
浩 三谷
憲治 田部井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018060959A priority Critical patent/JP7113289B2/en
Publication of JP2019176280A publication Critical patent/JP2019176280A/en
Publication of JP2019176280A5 publication Critical patent/JP2019176280A5/ja
Application granted granted Critical
Publication of JP7113289B2 publication Critical patent/JP7113289B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Description

本開示は、カメラなどに用いられる撮像装置などに関する。 The present disclosure relates to imaging devices and the like used in cameras and the like.

従来、撮像素子と、撮像素子の撮像面に投影される光学像との相対位置をずらしながら得られる画像データを合成することによって合成画像を生成する撮像装置が提案されている(特許文献1参照)。 Conventionally, there has been proposed an imaging apparatus that generates a composite image by synthesizing image data obtained while shifting the relative positions of an imaging device and an optical image projected onto an imaging surface of the imaging device (see Patent Document 1). ).

特開2015-226256号公報JP 2015-226256 A

しかしながら、上記特許文献1の撮像装置では、画質の向上が難しいという課題がある。 However, the imaging apparatus of Patent Document 1 has a problem that it is difficult to improve the image quality.

そこで、本発明は、画質の向上を図ることができる撮像装置を提供する。 Accordingly, the present invention provides an imaging apparatus capable of improving image quality.

本開示の一態様に係る撮像装置は、それぞれ一面に沿って画素ピッチおきに互いに離間して配置され、カラーフィルタに含まれるRGBのうちの何れかの色の透光部を透過した光を受光する複数の受光部を有する撮像素子と、前記撮像素子の撮像面に投影される光学像に対して前記撮像面内における相対位置を変化させる駆動部と、前記撮像素子が露光されるごとに前記撮像素子の前記複数の受光部のそれぞれから出力される画素データを合成することによって、合成画像を生成する合成部とを備え、前記RGBのうちの何れかの色である第1の色に対応する第1受光部の受光領域は、前記光学像の1つの画素領域内に位置し、前記駆動部は、前記第1受光部の受光領域を、前記1つの画素領域内において、前記画素ピッチよりも短い距離だけ互いに離れた複数の位置のそれぞれに順に配置し、前記合成部は、前記画素領域内において前記第1受光部の受光領域が前記複数の位置のそれぞれに順に配置されたときに前記第1受光部から出力される画素データに基づいて前記合成画像を生成し、前記光学像における前記画素領域は、前記撮像面における1つの受光部の受光領域の全体と、前記受光領域の周囲の非受光領域とに重なり、かつ、他の受光部の受光領域に重ならない大きさを有するAn imaging device according to an aspect of the present disclosure is arranged along one surface with a pixel pitch apart from each other, and receives light transmitted through a translucent portion of any one of RGB colors included in a color filter. an image pickup device having a plurality of light receiving units that are exposed to each other; a drive unit that changes a relative position within the image pickup plane with respect to an optical image projected on the image pickup surface of the image pickup device; a synthesizing unit that generates a synthesized image by synthesizing pixel data output from each of the plurality of light receiving units of the imaging element, and corresponds to a first color that is any one of the RGB colors. The light-receiving area of the first light-receiving unit is positioned within one pixel area of the optical image, and the driving unit aligns the light-receiving area of the first light-receiving unit within the one pixel area from the pixel pitch. are arranged in order at a plurality of positions spaced apart from each other by a short distance, and the synthesizing unit operates when the light receiving regions of the first light receiving unit are arranged in order at each of the plurality of positions in the pixel region. The composite image is generated based on the pixel data output from the first light receiving unit , and the pixel area in the optical image includes the entire light receiving area of one light receiving unit on the imaging surface and the surrounding area of the light receiving area. It has a size that overlaps with the non-light-receiving area and does not overlap with the light-receiving areas of other light-receiving sections .

また、本開示の一態様に係る撮像方法は、それぞれ一面に沿って画素ピッチおきに互いに離間して配置され、カラーフィルタに含まれるRGBのうちの何れかの色の透光部を透過した光を受光する複数の受光部を有する撮像素子を用いる撮像方法であって、前記撮像素子の撮像面に投影される光学像に対して前記撮像面内における相対位置を変化させ、前記撮像素子が露光されるごとに前記撮像素子の前記複数の受光部のそれぞれから出力される画素データを合成することによって、合成画像を生成し、前記RGBのうちの何れかの色である第1の色に対応する第1受光部の受光領域は、前記光学像の1つの画素領域内に位置し、前記撮像面の相対位置の変化では、前記第1受光部の受光領域を、前記1つの画素領域内において、前記画素ピッチよりも短い距離だけ互いに離れた複数の位置のそれぞれに順に配置し、前記合成画像の生成では、前記画素領域内において前記第1受光部の受光領域が前記複数の位置のそれぞれに順に配置されたときに前記第1受光部から出力される画素データに基づいて前記合成画像を生成し、前記光学像における前記画素領域は、前記撮像面における1つの受光部の受光領域の全体と、前記受光領域の周囲の非受光領域とに重なり、かつ、他の受光部の受光領域に重ならない大きさを有するIn addition, in the imaging method according to an aspect of the present disclosure, the light transmitted through the translucent portions of any one of the colors of RGB included in the color filter is arranged apart from each other at every pixel pitch along one surface. An image pickup method using an image pickup device having a plurality of light receiving units that receive light, wherein the relative position in the image pickup plane is changed with respect to an optical image projected on the image pickup surface of the image pickup device, and the image pickup device is exposed. A synthesized image is generated by synthesizing pixel data output from each of the plurality of light-receiving units of the imaging element each time the image is captured, and corresponds to a first color that is any one of the RGB colors. The light-receiving area of the first light-receiving unit is positioned within one pixel area of the optical image, and the change in the relative position of the imaging surface changes the light-receiving area of the first light-receiving unit within the one pixel area. , and in the generation of the composite image, the light receiving regions of the first light receiving unit are positioned at each of the plurality of positions in the pixel region. The composite image is generated based on the pixel data output from the first light receiving units when arranged in order, and the pixel area in the optical image is the entire light receiving area of one light receiving unit on the imaging surface. , and has a size that overlaps with the non-light-receiving area surrounding the light-receiving area and does not overlap with the light-receiving areas of other light-receiving sections .

なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。また、記録媒体は、非一時的な記録媒体であってもよい。 In addition, these general or specific aspects may be realized by a system, method, integrated circuit, computer program, or a recording medium such as a computer-readable CD-ROM. and any combination of recording media. Also, the recording medium may be a non-temporary recording medium.

本開示の撮像装置は、画質の向上を図ることができる。 The imaging device of the present disclosure can improve image quality.

図1は、補間処理の原理を示す図である。FIG. 1 is a diagram showing the principle of interpolation processing. 図2は、非受光領域を有する撮像素子による補間処理を示す図である。FIG. 2 is a diagram showing interpolation processing by an imaging device having a non-light-receiving area. 図3は、撮像素子の位置決め誤差の例を示す図である。FIG. 3 is a diagram showing an example of the positioning error of the imaging device. 図4は、実施の形態における撮像装置の構成を示すブロック図である。FIG. 4 is a block diagram showing the configuration of the imaging device according to the embodiment. 図5は、実施の形態における撮像素子の断面を示す図である。FIG. 5 is a diagram showing a cross section of an imaging element in the embodiment. 図6は、実施の形態における撮像素子の撮像面における各領域を示す図である。FIG. 6 is a diagram showing each region on the imaging surface of the imaging element in the embodiment. 図7は、実施の形態におけるメモリ、シフタ、RGB分解部および合成部の処理を説明するための図である。7A and 7B are diagrams for explaining the processing of the memory, shifter, RGB decomposing unit, and synthesizing unit according to the embodiment. 図8は、実施の形態における、光学像に対する撮像素子の撮像面の相対位置の変化を示す図である。FIG. 8 is a diagram showing changes in the relative position of the imaging surface of the imaging element with respect to the optical image in the embodiment. 図9は、実施の形態におけるシーケンサおよび撮像素子のそれぞれの動作モードの遷移と、撮像素子の動きとを示す図である。9A and 9B are diagrams showing transitions of operation modes of the sequencer and the image pickup device, and movement of the image pickup device, according to the embodiment. 図10は、実施の形態における撮像素子の移動によって、光学像に対してずらされる各受光領域の位置を示す図である。FIG. 10 is a diagram showing the position of each light-receiving region shifted with respect to the optical image by movement of the imaging element in the embodiment. 図11は、実施の形態における撮像装置の処理動作を示すフローチャートである。FIG. 11 is a flow chart showing the processing operation of the imaging device according to the embodiment. 図12は、実施の形態の変形例における撮像装置の構成を示すブロック図である。FIG. 12 is a block diagram showing the configuration of an imaging device according to a modification of the embodiment; 図13は、実施の形態の変形例における、メモリ、シフタ、RGB分解部および合成部の処理を説明するための図である。13A and 13B are diagrams for explaining processing of the memory, the shifter, the RGB decomposing unit, and the synthesizing unit in the modified example of the embodiment; 図14は、実施の形態の変形例における、光学像に対する撮像素子の撮像面の相対位置の変化を示す図である。14A and 14B are diagrams showing changes in the relative position of the imaging surface of the imaging element with respect to the optical image in the modification of the embodiment. 図15は、実施の形態の変形例における、シーケンサおよび撮像素子のそれぞれの動作モードの遷移と、撮像素子の動きとを示す図である。15A and 15B are diagrams showing the transition of the operation modes of the sequencer and the image pickup device and the movement of the image pickup device in the modified example of the embodiment. 図16は、実施の形態の本変形例における、画素領域に対する受光領域のずれを示す図である。FIG. 16 is a diagram showing the displacement of the light receiving area with respect to the pixel area in this modification of the embodiment.

(本開示の基礎となった知見)
ベイヤー配列の撮像素子を有する撮像装置は、その撮像素子に含まれる各受光部から、光の三原色のそれぞれの色の信号を出力する。つまり、各受光部は、R(赤色)の信号、G(緑色)の信号、またはB(青色)の信号を出力する。また、ベイヤー配列では、Gの信号を出力する受光部の数は、Rの信号またはBの信号を出力する受光部の数よりも2倍多い。なお、これらの受光部から出力される信号を、以下、画素データという。
(Findings on which this disclosure is based)
2. Description of the Related Art An imaging apparatus having a Bayer array imaging element outputs signals of the three primary colors of light from each light receiving section included in the imaging element. That is, each light receiving section outputs an R (red) signal, a G (green) signal, or a B (blue) signal. In addition, in the Bayer array, the number of light receiving sections that output G signals is twice as large as the number of light receiving sections that output R signals or B signals. The signals output from these light receiving units are hereinafter referred to as pixel data.

しかし、このような撮像装置は、1つの受光部の位置において、R、GまたはBの画素データしか得ることができず、RGBのすべての色の画素データを得ることができない。 However, such an imaging device can only obtain pixel data of R, G, or B at the position of one light receiving portion, and cannot obtain pixel data of all colors of RGB.

そこで、1つの受光部において実際に得らえていない色の画素データを、他の受光部の画素データから電気的信号処理によって生成することが考えられる。 Therefore, it is conceivable to generate pixel data of a color that is not actually obtained in one light receiving portion from pixel data of another light receiving portion by electrical signal processing.

しかし、このような電気的信号処理によって生成される画素データは、実際の画素データではないために信頼性が低い。 However, the pixel data generated by such electrical signal processing has low reliability because it is not actual pixel data.

そこで、撮像素子の撮像面に投影される光学像に対するその撮像面の相対位置を機械的に変化させることによって、1つの受光部の位置において、すなわち光学像内の同一領域において、RGBのすべての色の画素データを得る補間処理が提案されている。 Therefore, by mechanically changing the relative position of the imaging surface with respect to the optical image projected on the imaging surface of the imaging device, all of RGB can be obtained at the position of one light receiving unit, that is, in the same area within the optical image. Interpolation processing has been proposed to obtain color pixel data.

図1は、補間処理の原理を示す図である。 FIG. 1 is a diagram showing the principle of interpolation processing.

撮像素子の撮像面には、レンズなどの光学系によって光学像が投影される。このとき、例えば、図1の(a)に示すように、撮像素子の撮像面におけるGの受光領域のみに、光学像が投影される。受光領域は、光がカラーフィルタの透光部を介して1つの受光部によって受光される領域である。なお、受光領域に投影される光のうち、透光部に対して予め定められたR、GまたはBの光だけがその透光部を透過する。したがって、受光領域には、R、GおよびBの光が投影されるが、それらの光のうち、透光部を透過した光のみが、受光部によって受光される。上述のGの受光領域には、Gの透光部が配置されているため、受光部は、Gの光のみを受光して、その受光された光に応じたGの画素データを出力する。 An optical image is projected onto the imaging surface of the imaging element by an optical system such as a lens. At this time, for example, as shown in (a) of FIG. 1, an optical image is projected only on the light receiving area of G on the imaging surface of the imaging element. The light-receiving area is an area where light is received by one light-receiving section through the light-transmitting section of the color filter. Of the light projected onto the light-receiving area, only light of R, G, or B predetermined for the light-transmitting portion is transmitted through the light-transmitting portion. Therefore, although R, G, and B lights are projected onto the light receiving area, only the light that has passed through the light transmitting section is received by the light receiving section. Since the G light-transmitting portion is arranged in the G light-receiving region, the light-receiving portion receives only the G light and outputs the G pixel data according to the received light.

次に、撮像素子は、図1の(b)に示すように、1画素ピッチだけ左に移動する。これにより、光学像は、Rの受光領域に投影される。したがって、このときには、Rの受光領域の受光部が、Rの画素データを出力する。なお、1画素ピッチは、隣り合う受光部間の距離である。 Next, the imaging device moves to the left by one pixel pitch, as shown in FIG. 1(b). As a result, the optical image is projected onto the R light receiving area. Therefore, at this time, the light-receiving portion of the R light-receiving region outputs the R pixel data. Note that the one-pixel pitch is the distance between adjacent light receiving portions.

次に、撮像素子は、図1の(c)に示すように、図1の(b)に示す位置から1画素ピッチだけ上に移動する。これにより、光学像は、Gの受光領域に投影される。したがって、このときには、Gの受光領域の受光部が、Gの画素データを出力する。なお、このときに光学像が投影されるGの受光領域は、図1の(a)に示すGの受光領域とは異なる。 Next, the imaging element moves upward by one pixel pitch from the position shown in FIG. 1(b), as shown in FIG. 1(c). As a result, the optical image is projected onto the G light receiving area. Therefore, at this time, the light-receiving portion of the G light-receiving region outputs the G pixel data. It should be noted that the G light-receiving region on which the optical image is projected at this time is different from the G light-receiving region shown in FIG.

さらに、撮像素子は、図1の(d)に示すように、図1の(c)に示す位置から1画素ピッチだけ右に移動する。これにより、光学像は、Bの受光領域に投影される。したがって、このときには、Bの受光領域の受光部が、Bの画素データを出力する。 Further, the imaging element is moved to the right by one pixel pitch from the position shown in FIG. 1(c), as shown in FIG. 1(d). As a result, the optical image is projected onto the B light receiving area. Therefore, at this time, the light-receiving portion of the B light-receiving region outputs the B pixel data.

このような図1の(a)~(d)に示す処理によって、光学像の位置において、RGBの全ての色の画素データを得ることができる。 Through the processing shown in (a) to (d) of FIG. 1, pixel data of all RGB colors can be obtained at the position of the optical image.

しかし、近年は撮像素子の高画素数化に伴い画素ピッチが微細化し、正確に1画素ピッチのみ撮像素子を移動させることがますます困難になってきている。そのため、移動する撮像素子に位置決め誤差がある場合には、光の三原色のバランスがくずれて、色むらが生じる可能性がある。また、実際の撮像素子では、撮像面において各受光領域が隙間なく配列されておらず、各受光領域の間に、光を受光することができない非受光領域が存在する。 However, in recent years, as the number of pixels of an image pickup device increases, the pixel pitch becomes finer, and it is becoming more and more difficult to move the image pickup device by exactly one pixel pitch. Therefore, if there is a positioning error in the moving imaging device, the balance of the three primary colors of light may be lost, resulting in color unevenness. In addition, in an actual imaging device, the light receiving areas are not arranged without gaps on the imaging surface, and there are non-light receiving areas that cannot receive light between the light receiving areas.

図2は、非受光領域を有する撮像素子による補間処理を示す図である。 FIG. 2 is a diagram showing interpolation processing by an imaging device having a non-light-receiving area.

図2に示すように、撮像素子の撮像面における、Rの受光領域、Gの受光領域およびBの受光領域のそれぞれの間には、非受光領域が存在する。 As shown in FIG. 2, non-light-receiving regions exist between the R light-receiving region, the G light-receiving region, and the B light-receiving region on the imaging surface of the image sensor.

このような撮像素子に対しても、例えば図2の(a)~(d)に示すように、図1と同様の補間処理が行われる。なお、図2では、光学像内の輝度などが全体的に均一ではなく、例えばエッジなどが含まれている例が示されている。 Interpolation processing similar to that in FIG. 1 is also performed on such an image pickup device, as shown in (a) to (d) of FIG. 2, for example. Note that FIG. 2 shows an example in which the brightness and the like in the optical image are not uniform as a whole and, for example, edges are included.

しかし、このような撮像素子であっても、撮像素子の位置決め誤差によって、色むらが生じる可能性がある。 However, even with such an image pickup device, color unevenness may occur due to a positioning error of the image pickup device.

図3は、撮像素子の位置決め誤差の例を示す図である。 FIG. 3 is a diagram showing an example of the positioning error of the imaging device.

例えば、図2の(d)に示すように、1画素ピッチだけ撮像素子を右に動かして停止させることができず、図3に示すように、撮像素子の位置が所定の位置からずれてしまうことがある。 For example, as shown in (d) of FIG. 2, the image pickup device cannot be moved to the right by one pixel pitch and stopped, and the position of the image pickup device shifts from the predetermined position as shown in FIG. Sometimes.

このような場合に、光学像にエッジなどが含まれていると、Bの受光領域には、他のRおよびGのそれぞれの受光領域とは異なる光が投影される。その結果、光の三原色のバランスがくずれて、色むらが生じてしまう。なお、上述のように、所定の位置に撮像素子を配置することができない場合に生じる、その所定の位置からの撮像素子の位置のずれを、本開示では、位置決め誤差という。 In such a case, if the optical image includes an edge or the like, light different from that of the other R and G light receiving regions is projected onto the B light receiving region. As a result, the balance of the three primary colors of light is lost, resulting in color unevenness. Note that, as described above, the positional deviation of the imaging element from the predetermined position that occurs when the imaging element cannot be arranged at the predetermined position is referred to as a positioning error in the present disclosure.

また、上記特許文献1の技術では、撮像素子をずらして解像度を高めようとしているが、上述のような色むらが生じる可能性がある。 Further, in the technique disclosed in Japanese Patent Laid-Open No. 2002-200001, the imaging element is shifted to improve the resolution, but there is a possibility that the color unevenness described above may occur.

そこで、本開示の一態様に係る撮像装置は、それぞれ一面に沿って互いに離間して配置され、カラーフィルタに含まれるRGBのうちの何れかの色の透光部を透過した光を受光する複数の受光部を有する撮像素子と、前記撮像素子の撮像面に投影される光学像に対する前記撮像面の相対位置を変化させる駆動部と、前記撮像素子が露光されるごとに前記撮像素子の前記複数の受光部のそれぞれから出力される画素データを合成することによって、合成画像を生成する合成部とを備え、前記駆動部は、前記相対位置を変化させることによって、前記RGBのうちの何れかの色である第1の色に対応する第1受光部の受光領域を、前記光学像の画素領域内において、前記複数の受光部の間隔よりも短い距離だけ互いに離れた複数の位置のそれぞれに順に配置し、前記合成部は、前記画素領域内において前記第1受光部の受光領域が前記複数の位置のそれぞれに順に配置されたときに前記第1受光部から出力される画素データを加算することによって、前記画素領域における前記第1の色の画素値を、前記合成画像に含まれる画素値として算出する。例えば、前記光学像における前記画素領域は、前記撮像面における1つの受光部の受光領域の全体と、前記受光領域の周囲の非受光領域とに重なり、かつ、他の受光部の受光領域に重ならない大きさを有していてもよい。 Therefore, an imaging device according to an aspect of the present disclosure includes a plurality of imaging devices that are arranged apart from each other along one surface and receive light that has passed through a translucent portion of any one of RGB colors included in a color filter. a driving unit for changing the relative position of the imaging surface with respect to the optical image projected on the imaging surface of the imaging device; and the plurality of the imaging devices each time the imaging device is exposed to light. a synthesizing unit that generates a synthetic image by synthesizing pixel data output from each of the light receiving units, and the driving unit changes the relative position of any one of the RGB. The light receiving areas of the first light receiving section corresponding to the first color are sequentially placed at a plurality of positions separated from each other by a distance shorter than the interval between the plurality of light receiving sections within the pixel region of the optical image. and the synthesizing unit adds the pixel data output from the first light receiving unit when the light receiving areas of the first light receiving unit are arranged in order at each of the plurality of positions in the pixel area. to calculate the pixel value of the first color in the pixel area as the pixel value included in the composite image. For example, the pixel region in the optical image overlaps the entire light-receiving region of one light-receiving unit on the imaging surface, the non-light-receiving region surrounding the light-receiving region, and overlaps the light-receiving region of another light-receiving unit. It may have a size that does not

これにより、画素領域に対する撮像素子の開口率を等価的に上げることができる。つまり、撮像素子における複数の受光部が互いに離間して配置されている場合には、それらの複数の受光部の間に非受光領域が存在する。このような非受光領域を有する撮像素子では、非受光領域がない撮像素子と比べて、1つの受光部における開口率が低い。その結果、光学像を構成する複数の画素領域のそれぞれにおいて、その画素領域内の広い範囲で光を受けることができない。したがって、例えば図3に示すような撮像素子の位置決め誤差が生じた場合には、1つの色の画素データを、他の色の画素データと比べて適切に取得することができない。しかし、上記態様に係る撮像装置では、第1の色に対応する第1受光部の受光領域が画素領域内において複数の位置に順に配置され、それらの位置では、露光によってその第1受光部から画素データが出力される。これにより、非受光領域に投影される光も捉えることができ、非受光領域の実質的な面積を小さく抑えることができる。言い換えれば、画素領域に対して受光領域が小さくても、仮想的にその受光領域を大きくすることができる。つまり、上述のように開口率を等価的に上げることができる。したがって、上述のような撮像素子の位置決め誤差が生じても、色むらの発生を抑えることができる。また、上記態様に係る撮像装置では、1つの色に対応する受光領域が画素領域内の1つの位置だけでなく複数の位置に順に配置される。したがって、1回の位置決め誤差による色むらへの影響を抑えることができる。また、位置決め誤差が複数回生じても、それらの位置決め誤差がランダムであれば、それらの位置決め誤差の色むらに対する影響を抑えることができる。なお、開口率は、例えば、画素領域の大きさに対する受光領域の大きさの比率である。 This can equivalently increase the aperture ratio of the image sensor with respect to the pixel area. In other words, when a plurality of light receiving portions in the imaging device are arranged apart from each other, non-light receiving areas exist between the plurality of light receiving portions. An image pickup device having such a non-light-receiving region has a lower aperture ratio in one light-receiving portion than an image pickup device having no non-light-receiving region. As a result, in each of the plurality of pixel regions forming the optical image, light cannot be received over a wide range within the pixel region. Therefore, for example, when a positioning error of the imaging device as shown in FIG. 3 occurs, pixel data of one color cannot be obtained more appropriately than pixel data of other colors. However, in the imaging device according to the above aspect, the light receiving areas of the first light receiving section corresponding to the first color are sequentially arranged at a plurality of positions within the pixel area, and at those positions, the light from the first light receiving section is exposed by exposure. Pixel data is output. As a result, the light projected onto the non-light-receiving region can also be captured, and the substantial area of the non-light-receiving region can be reduced. In other words, even if the light receiving area is smaller than the pixel area, the light receiving area can be virtually enlarged. That is, the aperture ratio can be equivalently increased as described above. Therefore, even if the positioning error of the imaging element as described above occurs, the occurrence of color unevenness can be suppressed. Further, in the imaging device according to the above aspect, the light receiving regions corresponding to one color are arranged not only at one position within the pixel region but also at a plurality of positions in sequence. Therefore, it is possible to suppress the influence of a single positioning error on color unevenness. Further, even if positioning errors occur multiple times, if the positioning errors are random, the influence of the positioning errors on color unevenness can be suppressed. Note that the aperture ratio is, for example, the ratio of the size of the light receiving area to the size of the pixel area.

また、前記撮像装置は、さらに、前記撮像素子の前記複数の受光部のそれぞれから出力される画素データを格納するためのメモリと、前記メモリに格納された画素データの画素位置をシフトするシフタとを備え、前記駆動部は、さらに、前記相対位置を変化させることによって、前記RGBのうちの前記第1の色と異なる第2の色に対応する第2受光部の受光領域を、前記画素領域内における前記複数の位置のそれぞれに順に配置し、前記シフタは、前記第2受光部から出力される画素データが前記メモリに転送された場合には、前記メモリに格納された前記第2受光部の画素データの画素位置を、前記第1受光部の画素データの画素位置にシフトし、前記合成部は、前記画素領域内において前記第2受光部の受光領域が前記複数の位置のそれぞれに順に配置されたときに前記第2受光部から出力されて、かつシフトされた画素データを加算することによって、前記画素領域における前記第2の色の画素値を、前記合成画像に含まれる画素値として算出してもよい。 The imaging device further includes a memory for storing pixel data output from each of the plurality of light receiving units of the imaging device, and a shifter for shifting the pixel position of the pixel data stored in the memory. and the driving unit further changes the light receiving area of the second light receiving unit corresponding to a second color of the RGB, which is different from the first color, to the pixel area by changing the relative position. and the shifter is arranged at each of the plurality of positions in the second light receiving section stored in the memory when the pixel data output from the second light receiving section is transferred to the memory. to the pixel position of the pixel data of the first light receiving section, and the synthesizing section sequentially shifts the light receiving region of the second light receiving section to each of the plurality of positions within the pixel region. By adding the shifted pixel data output from the second light receiving unit when arranged, the pixel value of the second color in the pixel area is used as the pixel value included in the synthesized image. can be calculated.

これにより、画素領域に対して第1の色の画素値だけでなく、第2の色の画素値も、色むらの発生を抑えて適切に算出することができる。 As a result, not only the pixel value of the first color but also the pixel value of the second color can be appropriately calculated with respect to the pixel region while suppressing the occurrence of color unevenness.

例えば、前記カラーフィルタに含まれる複数の前記透光部の配列は、ベイヤー配列であってもよい。この場合、前記カラーフィルタは、それぞれRの透光部と、2つのGの透光部と、Bの透光部とを含む複数の組からなり、前記複数の位置は、4つの位置であり、前記駆動部は、前記第1受光部および前記第2受光部のそれぞれの受光領域を配置するときには、前記第1の色であるRに対応する前記第1受光部の受光領域を、前記4つの位置に順に配置し、前記第2の色であるBに対応する前記第2受光部の受光領域を、前記4つの位置に順に配置し、さらに、前記相対位置を変化させることによって、第3の色であるGに対応する第3受光部の受光領域を、前記4つの位置に順に配置し、第4の色であるGに対応する第4受光部の受光領域を、前記4つの位置に順に配置し、前記シフタは、さらに、前記第3受光部から出力される画素データが前記メモリに転送された場合には、前記メモリに格納された前記第3受光部の画素データの画素位置を、前記第1受光部の画素データの画素位置にシフトし、前記第4受光部から出力される画素データが前記メモリに転送された場合には、前記メモリに格納された前記第4受光部の画素データの画素位置を、前記第1受光部の画素データの画素位置にシフトし、前記合成部は、さらに、前記画素領域内において前記第3受光部の受光領域が前記複数の位置のそれぞれに順に配置されたときに前記第3受光部から出力されて、かつシフトされた画素データを加算することによって、前記画素領域における前記第3の色の画素値を算出し、前記画素領域内において前記第4受光部の受光領域が前記複数の位置のそれぞれに順に配置されたときに前記第4受光部から出力されて、かつシフトされた画素データを加算することによって、前記画素領域における前記第4の色の画素値を算出し、前記第3の色の画素値と前記第4の色の画素値との平均値を、前記合成画像に含まれるGの画素値として算出してもよい。 For example, the arrangement of the plurality of translucent portions included in the color filter may be a Bayer arrangement. In this case, the color filter is composed of a plurality of sets each including an R light-transmitting portion, two G light-transmitting portions, and a B light-transmitting portion, and the plurality of positions are four positions. , the driving section, when arranging the light receiving areas of the first light receiving section and the second light receiving section, sets the light receiving area of the first light receiving section corresponding to R as the first color to the four light receiving sections. By sequentially arranging the light-receiving regions of the second light-receiving unit corresponding to B, which is the second color, at the four positions and changing the relative positions, the third The light-receiving areas of the third light-receiving section corresponding to G, which is the color of , are arranged in order at the four positions, and the light-receiving areas of the fourth light-receiving section corresponding to G, the fourth color, are arranged at the four positions When the pixel data output from the third light receiving section is transferred to the memory, the shifter shifts the pixel position of the pixel data of the third light receiving section stored in the memory. , to the pixel position of the pixel data of the first light receiving portion, and when the pixel data output from the fourth light receiving portion is transferred to the memory, the position of the pixel data of the fourth light receiving portion stored in the memory The pixel position of the pixel data is shifted to the pixel position of the pixel data of the first light receiving section, and the synthesizing section further shifts the light receiving region of the third light receiving section to each of the plurality of positions within the pixel region. A pixel value of the third color in the pixel area is calculated by adding the shifted pixel data output from the third light receiving section when arranged in order, and the pixel value of the third color in the pixel area is calculated. By adding the shifted pixel data output from the fourth light receiving unit when the light receiving regions of the fourth light receiving unit are arranged in order at each of the plurality of positions, the fourth pixel data in the pixel region is added. may be calculated as the pixel value of G included in the composite image.

これにより、画素領域に対して、Rの画素値と、2つのGの画素値と、Bの画素値とを、色むらの発生を抑えて適切に算出することができる。 As a result, the R pixel value, the two G pixel values, and the B pixel value can be appropriately calculated with respect to the pixel region while suppressing the occurrence of color unevenness.

また、前記カラーフィルタに含まれる複数の前記透光部の配列は、デルタ配列であってもよい。 Further, the arrangement of the plurality of translucent portions included in the color filter may be a delta arrangement.

これにより、デルタ配列の撮像素子に対しても、色むらの発生を適切に抑えることができる。 Accordingly, it is possible to appropriately suppress the occurrence of color unevenness even for the delta-arrangement imaging device.

以下、実施の形態について、図面を参照しながら具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.

なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 It should be noted that the embodiments described below are all comprehensive or specific examples. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, and the like shown in the following embodiments are examples and are not intended to limit the present invention. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in independent claims representing the highest concept will be described as arbitrary constituent elements.

また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、同じ構成部材については同じ符号を付している。 Each figure is a schematic diagram and is not necessarily strictly illustrated. Moreover, in each figure, the same code|symbol is attached|subjected about the same component.

(実施の形態)
図4は、本実施の形態における撮像装置の構成を示すブロック図である。
(Embodiment)
FIG. 4 is a block diagram showing the configuration of the imaging device according to this embodiment.

本実施の形態における撮像装置100は、撮像素子101と、レンズ102と、縦アクチュエータ103aと、横アクチュエータ103bと、シーケンサ104と、メモリ105と、シフタ106と、RGB分解部107と、合成部108とを備える。 Imaging apparatus 100 according to the present embodiment includes imaging element 101, lens 102, vertical actuator 103a, horizontal actuator 103b, sequencer 104, memory 105, shifter 106, RGB decomposing unit 107, and synthesizing unit 108. and

レンズ102は、被写体の映像を光学像として撮像素子101の撮像面に投影する。 A lens 102 projects an image of a subject as an optical image onto an imaging surface of an imaging element 101 .

撮像素子101は、例えばベイヤー配列の撮像素子(イメージセンサともいう)である。具体的には、撮像素子101は、例えばCCD(Charge Coupled Devices)またはCMOS(Complementary Metal Oxide Semiconductor)などである。この撮像素子101の撮像面では、RGBのそれぞれの受光領域が横方向および縦方向のそれぞれに沿ってマトリクス状に配列されている。横方向には、複数の受光領域のそれぞれが、隣の受光領域と横画素ピッチだけ離れるように配置され、縦方向には、複数の受光領域のそれぞれが、隣の受光領域と縦画素ピッチだけ離れるように配置されている。なお、それぞれの受光領域には、後述のように受光部が配置されている。 The imaging device 101 is, for example, a Bayer array imaging device (also referred to as an image sensor). Specifically, the imaging element 101 is, for example, a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). On the image pickup surface of the image pickup device 101, respective light receiving areas of RGB are arranged in a matrix along each of the horizontal direction and the vertical direction. In the horizontal direction, each of the plurality of light receiving regions is arranged so as to be separated from the adjacent light receiving region by the horizontal pixel pitch, and in the vertical direction, each of the plurality of light receiving regions is separated from the adjacent light receiving region by the vertical pixel pitch. placed apart. A light receiving section is arranged in each light receiving region as described later.

縦アクチュエータ103aおよび横アクチュエータ103bは、撮像素子101の撮像面に投影される光学像に対するその撮像面の相対位置を変化させる駆動部である。具体的には、縦アクチュエータ103aおよび横アクチュエータ103bは、それぞれボイスコイルモータまたは圧電素子などの駆動源を用いて、レンズ102の光軸に垂直な面内で撮像素子101を移動させる。縦アクチュエータ103aは、撮像素子101を縦方向に移動させる。横アクチュエータ103bは、撮像素子101を横方向に移動させる。なお、縦方向および横方向は、上述の光軸に垂直な面内において、互いに直交する方向である。 The vertical actuator 103a and the horizontal actuator 103b are driving units that change the relative position of the imaging surface of the imaging element 101 with respect to the optical image projected on the imaging surface. Specifically, the vertical actuator 103a and the horizontal actuator 103b move the imaging element 101 within a plane perpendicular to the optical axis of the lens 102 using a driving source such as a voice coil motor or a piezoelectric element. The vertical actuator 103a moves the imaging device 101 in the vertical direction. The horizontal actuator 103b moves the imaging element 101 in the horizontal direction. The vertical direction and the horizontal direction are directions orthogonal to each other in the plane perpendicular to the optical axis.

メモリ105は、撮像素子101の複数の受光部101bのそれぞれから出力される画素データを記録するための記録媒体である。 The memory 105 is a recording medium for recording pixel data output from each of the plurality of light receiving units 101b of the image sensor 101. FIG.

シーケンサ104は、撮像素子101の露光と、縦アクチュエータ103aおよび横アクチュエータ103bによる撮像素子101の移動と、メモリ105への画素データの書き込みとを制御する。 The sequencer 104 controls exposure of the image pickup device 101 , movement of the image pickup device 101 by the vertical actuator 103 a and horizontal actuator 103 b , and writing of pixel data to the memory 105 .

シフタ106は、メモリ105に格納された画素データの画素位置をシフトする。 A shifter 106 shifts the pixel position of the pixel data stored in the memory 105 .

RGB分解部107は、撮像素子101の複数の受光部のそれぞれから出力される画素データを、Rの画素データ、Gの画素データおよびBの画素データに分解する。 The RGB decomposition unit 107 decomposes the pixel data output from each of the plurality of light receiving units of the image sensor 101 into R pixel data, G pixel data, and B pixel data.

合成部108は、撮像素子101が露光されるごとに撮像素子101の複数の受光部のそれぞれから出力される画素データを合成することによって、合成画像を生成する。具体的には、合成部108は、光学像を構成する画素領域ごとに、その画素領域に対応する複数のRの画素データを加算し、その画素領域に対応する複数のGの画素データを加算して1/2を乗算し、その画素領域に対応する複数のRの画素データを加算する。これにより、合成部108は、合成画像を生成する。 The synthesis unit 108 generates a synthesized image by synthesizing pixel data output from each of the plurality of light receiving units of the image sensor 101 each time the image sensor 101 is exposed. Specifically, for each pixel region forming the optical image, the synthesizing unit 108 adds a plurality of R pixel data corresponding to the pixel region, and adds a plurality of G pixel data corresponding to the pixel region. is multiplied by 1/2, and a plurality of R pixel data corresponding to the pixel area are added. Thereby, the synthesizing unit 108 generates a synthetic image.

図5は、撮像素子101の断面を示す図である。 FIG. 5 is a diagram showing a cross section of the image sensor 101. As shown in FIG.

撮像素子101は、それぞれ一面に沿って互いに離間して配置され、カラーフィルタ101aに含まれるRGBのうちの何れかの色の透光部111を透過した光を受光する複数の受光部101bを有する。複数の受光部101bのそれぞれは、例えばフォトダイオードであって、光を受けると、その光の光量に応じた電気信号を画素データとして出力する。また、図4および図5に示すように、カラーフィルタ101aに含まれる複数の透光部111の配列は、ベイヤー配列である。つまり、カラーフィルタ101aは、それぞれRの透光部111と、2つのGの透光部111と、Bの透光部111とを含む複数の組からなる。つまり、1つの組は、Rの透光部111と、2つのGの透光部111と、Bの透光部111とを含む。 The imaging device 101 has a plurality of light receiving portions 101b which are arranged apart from each other along one surface and receive light transmitted through the light transmitting portions 111 of any one of RGB colors included in the color filter 101a. . Each of the plurality of light receiving portions 101b is, for example, a photodiode, and upon receiving light, outputs an electrical signal corresponding to the amount of light as pixel data. Moreover, as shown in FIGS. 4 and 5, the arrangement of the plurality of translucent portions 111 included in the color filter 101a is a Bayer arrangement. That is, the color filter 101a is composed of a plurality of sets each including an R light-transmitting portion 111, two G light-transmitting portions 111, and a B light-transmitting portion 111, respectively. That is, one set includes the R translucent portion 111 , two G translucent portions 111 , and the B translucent portion 111 .

図6は、撮像素子101の撮像面における各領域を示す図である。 FIG. 6 is a diagram showing each region on the imaging surface of the imaging element 101. As shown in FIG.

光学像における画素領域は、撮像面における1つの受光部101bの受光領域の全体と、その受光領域の周囲の非受光領域とに重なり、かつ、他の受光部101bの受光領域に重ならない大きさを有する。本実施の形態では、画素領域は、図6の破線で示すように、1つの受光領域を囲う矩形状であって、その画素領域の境界(図6の破線)は、その受光領域と隣の受光領域との間にある。また、本実施の形態では、光学像は、4つの画素領域からなる。 The pixel area in the optical image has a size that overlaps the entire light receiving area of one light receiving unit 101b on the imaging surface and the non-light receiving area surrounding the light receiving area, and does not overlap the light receiving areas of the other light receiving units 101b. have In this embodiment, the pixel region has a rectangular shape surrounding one light-receiving region, as indicated by the dashed line in FIG. 6, and the boundary of the pixel region (broken line in FIG. between the light-receiving regions. Also, in the present embodiment, the optical image consists of four pixel regions.

ここで、図5および図6に示すように、撮像素子101の受光領域は、画素領域よりも小さい。 Here, as shown in FIGS. 5 and 6, the light receiving area of the image sensor 101 is smaller than the pixel area.

そこで、本実施の形態における縦アクチュエータ103aおよび横アクチュエータ103bは、シーケンサ104による制御に応じて、光学像に対する撮像素子101の撮像面の相対位置を変化させることによって、受光領域を画素領域内において小さくずらす。すなわち、縦アクチュエータ103aおよび横アクチュエータ103bは、RGBのうちの何れかの色である第1の色に対応する第1受光部101bの受光領域を、光学像の画素領域内において、複数の受光部101bの間隔よりも短い距離だけ互いに離れた複数の位置のそれぞれに順に配置する。複数の受光部101bの間隔よりも短い距離は、上述の横画素ピッチまたは縦画素ピッチのそれぞれよりも短い距離であり、本実施の形態では、例えばそれぞれのピッチの1/2である。また、第1受光部101bは、撮像素子101が有する複数の受光部101bのうちの1つである。 Therefore, the vertical actuator 103a and the horizontal actuator 103b in the present embodiment change the relative position of the imaging surface of the imaging element 101 with respect to the optical image in accordance with the control by the sequencer 104, thereby making the light receiving area smaller within the pixel area. shift. That is, the vertical actuator 103a and the horizontal actuator 103b move the light-receiving region of the first light-receiving unit 101b corresponding to the first color, which is one of RGB, to a plurality of light-receiving units within the pixel region of the optical image. 101b in sequence at each of a plurality of positions separated from each other by a distance less than the interval 101b. A distance shorter than the interval between the plurality of light receiving units 101b is a distance shorter than each of the horizontal pixel pitch and the vertical pixel pitch described above, and is, for example, 1/2 of each pitch in the present embodiment. Also, the first light receiving unit 101b is one of the plurality of light receiving units 101b that the imaging element 101 has.

そして、本実施の形態における合成部108は、その画素領域内において第1受光部101bの受光領域が複数の位置のそれぞれに順に配置されたときに第1受光部101bから出力される画素データを加算する。その結果、合成部108は、その画素領域における第1の色の画素値を、合成画像に含まれる画素値として算出する。これにより、画素領域に対する撮像素子101の開口率を等価的に上げることができる。したがって、上述のような撮像素子の位置決め誤差が生じても、色むらの発生を抑えることができる。 Synthesizing unit 108 in the present embodiment combines the pixel data output from first light receiving unit 101b when the light receiving regions of first light receiving unit 101b are arranged in order at each of the plurality of positions in the pixel region. to add. As a result, the synthesizing unit 108 calculates the pixel values of the first color in the pixel area as the pixel values included in the synthesized image. This can equivalently increase the aperture ratio of the image sensor 101 with respect to the pixel area. Therefore, even if the positioning error of the imaging element as described above occurs, the occurrence of color unevenness can be suppressed.

図7は、メモリ105、シフタ106、RGB分解部107および合成部108の処理を説明するための図である。図8は、光学像に対する撮像素子101の撮像面の相対位置の変化を示す図である。図9は、シーケンサ104および撮像素子101のそれぞれの動作モードの遷移と、撮像素子101の動きとを示す図である。なお、図7に示す例では、撮像素子101は、M×N個の受光部101bを有する。また、図8および図9における1~16の数字は、撮像の順番を示す。 FIG. 7 is a diagram for explaining the processing of memory 105, shifter 106, RGB decomposing unit 107, and synthesizing unit 108. FIG. FIG. 8 is a diagram showing changes in the relative position of the imaging surface of the imaging element 101 with respect to the optical image. FIG. 9 is a diagram showing the transition of the operation modes of the sequencer 104 and the image pickup device 101 and the movement of the image pickup device 101. As shown in FIG. In the example shown in FIG. 7, the image sensor 101 has M×N light receiving units 101b. Numbers 1 to 16 in FIGS. 8 and 9 indicate the order of imaging.

シーケンサ104は、図9に示すように、縦アクチュエータ103aおよび横アクチュエータ103bを制御することにより、撮像素子101の移動と停止とを繰り返し行う。これにより、シーケンサ104は、撮像素子101をそれぞれ異なる撮像位置に順に移動させる。例えば、シーケンサ104は、図8に示すように、撮像素子101を16カ所の撮像位置に順に移動させて、それらの撮像位置で撮像素子101を停止させる。そして、シーケンサ104は、撮像素子101が撮像位置に停止するごとに、撮像素子101の露光によって、M×N個の受光部101bのそれぞれから画素データを出力させる。このとき、シーケンサ104は、M×N個の受光部101bのそれぞれから出力される画素データをメモリ105の記憶領域に格納する。 As shown in FIG. 9, the sequencer 104 repeatedly moves and stops the imaging device 101 by controlling the vertical actuator 103a and the horizontal actuator 103b. Thereby, the sequencer 104 sequentially moves the image sensor 101 to different imaging positions. For example, as shown in FIG. 8, the sequencer 104 sequentially moves the image sensor 101 to 16 image capturing positions and stops the image sensor 101 at those image capturing positions. Then, the sequencer 104 outputs pixel data from each of the M×N light receiving units 101b by exposing the image sensor 101 every time the image sensor 101 stops at the imaging position. At this time, the sequencer 104 stores the pixel data output from each of the M×N light receiving units 101 b in the storage area of the memory 105 .

具体的には、シーケンサ104は、1回目の撮像では、1番目の撮像位置である第1初期位置に撮像素子101を停止させ、このときに、その撮像素子101に撮像(すなわち露光)させる。第1初期位置では、例えば図8に示すように、光学像の左上端にGの受光領域が配置される。そして、シーケンサ104は、2番目の撮像位置に撮像素子101を移動させながら、1回目の撮像によって得られた撮像素子101のM×N個の画素データを、メモリ105の第1領域1aに転送する。このとき、M×N個の画素データのそれぞれは、M×N個の画素からなる撮像画像の画素位置に対応付けて第1領域1aに格納される。 Specifically, in the first imaging, the sequencer 104 stops the imaging device 101 at the first initial position, which is the first imaging position, and causes the imaging device 101 to perform imaging (that is, exposure) at this time. At the first initial position, for example, as shown in FIG. 8, the G light-receiving area is arranged at the upper left end of the optical image. Then, the sequencer 104 transfers the M×N pixel data of the image pickup device 101 obtained by the first image pickup to the first area 1a of the memory 105 while moving the image pickup device 101 to the second image pickup position. do. At this time, each of the M×N pieces of pixel data is stored in the first area 1a in association with the pixel position of the picked-up image composed of M×N pieces of pixels.

RGB分解部107は、そのM×N個の画素データをRの画素データ、Gの画素データ、およびBの画素データに分解して、合成部108に出力する。 The RGB decomposing unit 107 decomposes the M×N pixel data into R pixel data, G pixel data, and B pixel data, and outputs the R pixel data, G pixel data, and B pixel data to the synthesizing unit 108 .

シーケンサ104は、2番目の撮像位置に撮像素子101を移動させるときには、図8および図9に示すように、撮像素子101を第1初期位置から左に横画素ピッチだけ移動させて停止させる。2番目の撮影位置では、例えば、図8に示すように、光学像の左上端にBの受光領域が配置される。そして、シーケンサ104は、撮像素子101に2回目の撮像(すなわち露光)をさせる。シーケンサ104は、3番目の撮像位置に撮像素子101を移動させながら、2回目の撮像によって得られた撮像素子101のM×N個の画素データを、メモリ105の第2領域1bに転送する。このときにも、M×N個の画素データのそれぞれは、撮像画像における画素位置に対応付けて第2領域1bに格納される。 When the sequencer 104 moves the image sensor 101 to the second imaging position, as shown in FIGS. 8 and 9, the sequencer 104 moves the image sensor 101 to the left from the first initial position by the horizontal pixel pitch and stops. At the second imaging position, for example, as shown in FIG. 8, the B light receiving area is arranged at the upper left end of the optical image. Then, the sequencer 104 causes the imaging device 101 to perform the second imaging (that is, exposure). The sequencer 104 transfers the M×N pixel data of the image sensor 101 obtained by the second imaging to the second area 1b of the memory 105 while moving the image sensor 101 to the third imaging position. Also at this time, each of the M×N pieces of pixel data is stored in the second area 1b in association with the pixel position in the captured image.

シフタ106は、この第2領域1bに格納されているM×N個の画素データのそれぞれの画素位置を左に1画素分だけシフトする。これにより、第2領域1bに格納にされているM×N個の画素データによって示される撮像画像は、左に1画素分だけシフトされる。つまり、2回目の撮像によって得られたM×N個の画素データのそれぞれの画素位置は、撮像素子101が第1初期位置に配置されているときの画素位置にシフトされる。したがって、光学像の左上端の画素位置には、Gの画素データと、Bの画素データとが対応付けられる。 The shifter 106 shifts each pixel position of the M×N pixel data stored in the second area 1b to the left by one pixel. As a result, the captured image represented by the M×N pixel data stored in the second area 1b is shifted to the left by one pixel. That is, the pixel positions of the M×N pieces of pixel data obtained by the second imaging are shifted to the pixel positions when the imaging device 101 is arranged at the first initial position. Therefore, the pixel position of the upper left corner of the optical image is associated with the G pixel data and the B pixel data.

RGB分解部107は、そのシフトされたM×N個の画素データを、Rの画素データ、Gの画素データ、およびBの画素データに分解して、合成部108に出力する。 The RGB decomposing unit 107 decomposes the shifted M×N pixel data into R pixel data, G pixel data, and B pixel data, and outputs them to the synthesizing unit 108 .

シーケンサ104は、3番目の撮像位置に撮像素子101を移動させるときには、図8および図9に示すように、撮像素子101を2番目の撮像位置から上に縦画素ピッチだけ移動させて停止させる。3番目の撮影位置では、例えば、図8に示すように、光学像の左上端にGの受光領域が配置される。そして、シーケンサ104は、撮像素子101に3回目の撮像(すなわち露光)をさせる。シーケンサ104は、4番目の撮像位置に撮像素子101を移動させながら、3回目の撮像によって得られた撮像素子101のM×N個の画素データを、メモリ105の第3領域1cに転送する。このときにも、M×N個の画素データのそれぞれは、撮像画像における画素位置に対応付けて第3領域1cに格納される。 When the sequencer 104 moves the image pickup element 101 to the third image pickup position, as shown in FIGS. 8 and 9, the sequencer 104 moves the image pickup element 101 upward from the second image pickup position by the vertical pixel pitch and stops. At the third imaging position, for example, as shown in FIG. 8, the G light receiving area is arranged at the upper left end of the optical image. Then, the sequencer 104 causes the imaging device 101 to perform the third imaging (that is, exposure). The sequencer 104 transfers the M×N pixel data of the image sensor 101 obtained by the third imaging to the third area 1c of the memory 105 while moving the image sensor 101 to the fourth imaging position. Also at this time, each of the M×N pieces of pixel data is stored in the third area 1c in association with the pixel position in the captured image.

シフタ106は、この第3領域1cに格納にされているM×N個の画素データのそれぞれの画素位置を左に1画素分だけシフトし、さらに、上に1画素分だけシフトする。これにより、第3領域1cに格納にされているM×N個の画素データによって示される撮像画像は、左に1画素分だけシフトされ、かつ上に1画素分だけシフトされる。つまり、3回目の撮像によって得られたM×N個の画素データのそれぞれの画素位置は、撮像素子101が第1初期位置に配置されているときの画素位置にシフトされる。したがって、光学像の左上端の画素位置には、Gの画素データと、Bの画素データと、Gの画素データとが対応付けられる。 The shifter 106 shifts the pixel position of each of the M×N pixel data stored in the third area 1c to the left by one pixel and then shifts it upward by one pixel. As a result, the captured image represented by the M.times.N pixel data stored in the third area 1c is shifted leftward by one pixel and shifted upward by one pixel. That is, the pixel positions of the M×N pieces of pixel data obtained by the third imaging are shifted to the pixel positions when the imaging device 101 is arranged at the first initial position. Therefore, the pixel position of the upper left corner of the optical image is associated with the G pixel data, the B pixel data, and the G pixel data.

RGB分解部107は、そのシフトされたM×N個の画素データを、Rの画素データ、Gの画素データ、およびBの画素データに分解して、合成部108に出力する。 The RGB decomposing unit 107 decomposes the shifted M×N pixel data into R pixel data, G pixel data, and B pixel data, and outputs them to the synthesizing unit 108 .

シーケンサ104は、4番目の撮像位置に撮像素子101を移動させるときには、図8および図9に示すように、撮像素子101を3番目の撮像位置から右に横画素ピッチだけ移動させて停止させる。4番目の撮影位置では、例えば、図8に示すように、光学像の左上端にRの受光領域が配置される。そして、シーケンサ104は、撮像素子101に4回目の撮像(すなわち露光)をさせる。シーケンサ104は、5番目の撮像位置に撮像素子101を移動させながら、4回目の撮像によって得られた撮像素子101のM×N個の画素データを、メモリ105の第4領域1dに転送する。このときにも、M×N個の画素データのそれぞれは、撮像画像における画素位置に対応付けて第4領域1dに格納される。 When the sequencer 104 moves the image pickup device 101 to the fourth image pickup position, as shown in FIGS. 8 and 9, the sequencer 104 moves the image pickup device 101 from the third image pickup position to the right by the horizontal pixel pitch and stops. At the fourth photographing position, for example, as shown in FIG. 8, the R light-receiving area is arranged at the upper left end of the optical image. Then, the sequencer 104 causes the imaging device 101 to perform the fourth imaging (that is, exposure). The sequencer 104 transfers the M×N pixel data of the image pickup device 101 obtained by the fourth image pickup to the fourth area 1d of the memory 105 while moving the image pickup device 101 to the fifth image pickup position. Also at this time, each of the M×N pieces of pixel data is stored in the fourth area 1d in association with the pixel position in the captured image.

シフタ106は、この第4領域1dに格納にされているM×N個の画素データのそれぞれの画素位置を上に1画素分だけシフトする。これにより、第4領域1dに格納にされているM×N個の画素データによって示される撮像画像は、上に1画素分だけシフトされる。つまり、4回目の撮像によって得られたM×N個の画素データのそれぞれの画素位置は、撮像素子101が第1初期位置に配置されているときの画素位置にシフトされる。したがって、光学像の左上端の画素位置には、Gの画素データと、Bの画素データと、Gの画素データと、Rの画素データが対応付けられる。 The shifter 106 shifts the pixel positions of the M×N pieces of pixel data stored in the fourth area 1d upward by one pixel. As a result, the captured image represented by the M×N pixel data stored in the fourth area 1d is shifted upward by one pixel. That is, the pixel positions of the M×N pieces of pixel data obtained by the fourth imaging are shifted to the pixel positions when the imaging device 101 is arranged at the first initial position. Therefore, the pixel position of the upper left corner of the optical image is associated with G pixel data, B pixel data, G pixel data, and R pixel data.

RGB分解部107は、そのシフトされたM×N個の画素データを、Rの画素データ、Gの画素データ、およびBの画素データに分解して、合成部108に出力する。 The RGB decomposing unit 107 decomposes the shifted M×N pixel data into R pixel data, G pixel data, and B pixel data, and outputs them to the synthesizing unit 108 .

このような、1回目~4回目の撮像によって、撮像素子101が第1初期位置に配置されているときの撮像画像の複数の画素位置のそれぞれに対応付けられた、Rの画素データと、2つのGの画素データと、Bの画素データとが合成部108に出力される。 By performing the first to fourth imaging, R pixel data associated with each of the plurality of pixel positions of the captured image when the image sensor 101 is arranged at the first initial position, and 2 The G pixel data and the B pixel data are output to the synthesizing unit 108 .

ここで、シーケンサ104は、5番目の撮像位置である第2初期位置に撮像素子101を移動させる。このときには、シーケンサ104は、図8および図9に示すように、撮像素子101を4番目の撮像位置から、右に横画素ピッチ未満の距離だけ移動させ、さらに、下に縦画素ピッチだけ移動させて停止させる。図8に示すように、撮像素子101が第2初期位置にあるときには、撮像素子101が第1初期位置にあるときに光学像と重なっていた各受光領域は、例えば横画素ピッチの1/2だけ右にずれている。また、撮像素子101が第2初期位置にあるときには、光学像の右上端にBの受光領域が配置される。そして、シーケンサ104は、撮像素子101に5回目の撮像(すなわち露光)をさせる。シーケンサ104は、6番目の撮像位置に撮像素子101を移動させながら、5回目の撮像によって得られた撮像素子101のM×N個の画素データを、メモリ105の第5領域2aに転送する。このとき、M×N個の画素データのそれぞれは、M×N個の画素からなる撮像画像の画素位置に対応付けて第5領域2aに格納される。 Here, the sequencer 104 moves the imaging element 101 to the second initial position, which is the fifth imaging position. At this time, as shown in FIGS. 8 and 9, the sequencer 104 moves the image sensor 101 from the fourth imaging position to the right by a distance less than the horizontal pixel pitch and further downward by the vertical pixel pitch. to stop. As shown in FIG. 8, when the image sensor 101 is at the second initial position, each light receiving area that overlaps the optical image when the image sensor 101 is at the first initial position is 1/2 of the horizontal pixel pitch, for example. shifted to the right. Further, when the image sensor 101 is at the second initial position, the B light receiving area is arranged at the upper right end of the optical image. Then, the sequencer 104 causes the imaging device 101 to perform the fifth imaging (that is, exposure). The sequencer 104 transfers the M×N pixel data of the image pickup device 101 obtained by the fifth image pickup to the fifth area 2 a of the memory 105 while moving the image pickup device 101 to the sixth image pickup position. At this time, each of the M×N pieces of pixel data is stored in the fifth area 2a in association with the pixel position of the picked-up image composed of M×N pieces of pixels.

RGB分解部107は、そのM×N個の画素データをRの画素データ、Gの画素データ、およびBの画素データに分解して、合成部108に出力する。 The RGB decomposing unit 107 decomposes the M×N pixel data into R pixel data, G pixel data, and B pixel data, and outputs the R pixel data, G pixel data, and B pixel data to the synthesizing unit 108 .

シーケンサ104は、6回目、7回目および8回目の撮像を行うために、第1初期位置の代わりに第2初期位置に基づいて、2回目、3回目および4回目の撮像と同様の処理を行う。 In order to perform the sixth, seventh and eighth imaging, the sequencer 104 performs the same processing as the second, third and fourth imaging based on the second initial position instead of the first initial position. .

このような、5回目~8回目の撮像によって、撮像素子101が第2初期位置に配置されているときの撮像画像の複数の画素位置のそれぞれに対応付けられた、Rの画素データと、2つのGの画素データと、Bの画素データとが合成部108に出力される。 By performing the fifth to eighth imaging, R pixel data associated with each of the plurality of pixel positions of the captured image when the image sensor 101 is arranged at the second initial position, and 2 The G pixel data and the B pixel data are output to the synthesizing unit 108 .

同様に、シーケンサ104は、9番目の撮像位置である第3初期位置に撮像素子101を移動させる。このときには、シーケンサ104は、図8および図9に示すように、撮像素子101を8番目の撮像位置から、縦画素ピッチ以上であって縦画素ピッチの2倍未満の距離だけ下に移動させて停止させる。図8に示すように、撮像素子101が第3初期位置にあるときには、撮像素子101が第1初期位置にあるときに光学像と重なっていた各受光領域は、例えば横画素ピッチの1/2だけ右にずれ、さらに、縦画素ピッチの1/2だけ下にずれている。また、撮像素子101が第3初期位置にあるときには、光学像の右下端にGの受光領域が配置される。そして、シーケンサ104は、撮像素子101に9回目の撮像(すなわち露光)をさせる。シーケンサ104は、10番目の撮像位置に撮像素子101を移動させながら、9回目の撮像によって得られた撮像素子101のM×N個の画素データを、メモリ105の第9領域3aに転送する。このとき、M×N個の画素データのそれぞれは、M×N個の画素からなる撮像画像の画素位置に対応付けて第9領域3aに格納される。 Similarly, the sequencer 104 moves the imaging device 101 to the third initial position, which is the ninth imaging position. At this time, as shown in FIGS. 8 and 9, the sequencer 104 moves the image sensor 101 downward from the eighth imaging position by a distance equal to or greater than the vertical pixel pitch and less than twice the vertical pixel pitch. stop. As shown in FIG. 8, when the image sensor 101 is at the third initial position, each light receiving area that overlaps the optical image when the image sensor 101 is at the first initial position is 1/2 of the horizontal pixel pitch, for example. , and further shifted downward by 1/2 of the vertical pixel pitch. Further, when the image sensor 101 is at the third initial position, the G light receiving area is arranged at the lower right end of the optical image. Then, the sequencer 104 causes the imaging element 101 to perform the ninth imaging (that is, exposure). The sequencer 104 transfers the M×N pixel data of the image pickup device 101 obtained by the ninth image pickup to the ninth area 3 a of the memory 105 while moving the image pickup device 101 to the tenth image pickup position. At this time, each of the M×N pieces of pixel data is stored in the ninth area 3a in association with the pixel position of the picked-up image composed of M×N pieces of pixels.

RGB分解部107は、そのM×N個の画素データをRの画素データ、Gの画素データ、およびBの画素データに分解して、合成部108に出力する。 The RGB decomposing unit 107 decomposes the M×N pixel data into R pixel data, G pixel data, and B pixel data, and outputs the R pixel data, G pixel data, and B pixel data to the synthesizing unit 108 .

シーケンサ104は、10回目、11回目および12回目の撮像を行うために、第1初期位置の代わりに第3初期位置に基づいて、2回目、3回目および4回目の撮像と同様の処理を行う。 In order to perform the 10th, 11th and 12th imaging, the sequencer 104 performs the same processing as the 2nd, 3rd and 4th imaging based on the 3rd initial position instead of the 1st initial position. .

このような、9回目~12回目の撮像によって、撮像素子101が第3初期位置に配置されているときの撮像画像の複数の画素位置のそれぞれに対応付けられた、Rの画素データと、2つのGの画素データと、Bの画素データとが合成部108に出力される。 Through the ninth to twelfth imaging, the R pixel data associated with each of the plurality of pixel positions of the captured image when the image sensor 101 is arranged at the third initial position, and the 2 The G pixel data and the B pixel data are output to the synthesizing unit 108 .

同様に、シーケンサ104は、13番目の撮像位置である第4初期位置に撮像素子101を移動させる。このときには、シーケンサ104は、図8および図9に示すように、撮像素子101を12番目の撮像位置から、左に横画素ピッチ未満の距離だけ移動させ、さらに、下に縦画素ピッチだけ移動させて停止させる。図8に示すように、撮像素子101が第4初期位置にあるときには、撮像素子101が第1初期位置にあるときに光学像と重なっていた各受光領域は、例えば縦画素ピッチの1/2だけ下にずれている。また、撮像素子101が第4初期位置にあるときには、光学像の左下端にRの受光領域が配置される。そして、シーケンサ104は、撮像素子101に13回目の撮像(すなわち露光)をさせる。シーケンサ104は、14番目の撮像位置に撮像素子101を移動させながら、13回目の撮像によって得られた撮像素子101のM×N個の画素データを、メモリ105の第13領域4aに転送する。このとき、M×N個の画素データのそれぞれは、M×N個の画素からなる撮像画像の画素位置に対応付けて第13領域4aに格納される。 Similarly, the sequencer 104 moves the imaging device 101 to the fourth initial position, which is the 13th imaging position. At this time, as shown in FIGS. 8 and 9, the sequencer 104 moves the image sensor 101 from the twelfth imaging position to the left by a distance less than the horizontal pixel pitch, and further downward by the vertical pixel pitch. to stop. As shown in FIG. 8, when the image sensor 101 is at the fourth initial position, each light receiving region that overlaps the optical image when the image sensor 101 is at the first initial position is 1/2 of the vertical pixel pitch, for example. is shifted downwards. Further, when the imaging device 101 is at the fourth initial position, the R light receiving area is arranged at the lower left end of the optical image. Then, the sequencer 104 causes the imaging device 101 to perform the 13th imaging (that is, exposure). The sequencer 104 transfers the M×N pixel data of the image pickup device 101 obtained by the 13th image pickup to the 13th area 4 a of the memory 105 while moving the image pickup device 101 to the 14th image pickup position. At this time, each of the M×N pieces of pixel data is stored in the thirteenth area 4a in association with the pixel position of the picked-up image made up of M×N pieces of pixels.

RGB分解部107は、そのM×N個の画素データをRの画素データ、Gの画素データ、およびBの画素データに分解して、合成部108に出力する。 The RGB decomposing unit 107 decomposes the M×N pixel data into R pixel data, G pixel data, and B pixel data, and outputs the R pixel data, G pixel data, and B pixel data to the synthesizing unit 108 .

シーケンサ104は、14回目、15回目および16回目の撮像を行うために、第1初期位置の代わりに第4初期位置に基づいて、2回目、3回目および4回目の撮像と同様の処理を行う。 In order to perform the 14th, 15th and 16th imaging, the sequencer 104 performs the same processing as the 2nd, 3rd and 4th imaging based on the 4th initial position instead of the 1st initial position. .

このような、13回目~16回目の撮像によって、撮像素子101が第4初期位置に配置されているときの撮像画像の複数の画素位置のそれぞれに対応付けられた、Rの画素データと、2つのGの画素データと、Bの画素データとが合成部108に出力される。 Through the 13th to 16th imaging, the R pixel data associated with each of the plurality of pixel positions of the captured image when the image sensor 101 is arranged at the fourth initial position, and 2 The G pixel data and the B pixel data are output to the synthesizing unit 108 .

図10は、図8および図9に示す撮像素子101の移動によって、光学像に対してずらされる各受光領域の位置を示す図である。 FIG. 10 is a diagram showing the position of each light-receiving region shifted with respect to the optical image due to the movement of the imaging element 101 shown in FIGS. 8 and 9. FIG.

図10の(a)に示すように、1回目、5回目、9回目、および13回目の撮像では、光学像内の左上の画素領域内において、G(第3の色)の受光領域が左上、右上、右下、および左下の順に配置されて撮像が行われる。同様に、右上の画素領域内において、Bの受光領域が左上、右上、右下、および左下の順に配置されて撮像が行われ、右下の画素領域内において、Gの受光領域が左上、右上、右下、および左下の順に配置されて撮像が行われる。また、左下の画素領域内において、Rの受光領域が左上、右上、右下、および左下の順に配置されて撮像が行われる。 As shown in (a) of FIG. 10 , in the first, fifth, ninth, and thirteenth imaging, the G (third color) light-receiving region is the upper left pixel region in the optical image. , upper right, lower right, and lower left. Similarly, in the upper right pixel region, the light receiving regions for B are arranged in the order of upper left, upper right, lower right, and lower left, and an image is captured. , the lower right, and the lower left, and the images are captured. Also, in the lower left pixel area, the R light receiving areas are arranged in the order of the upper left, upper right, lower right, and lower left for imaging.

このように、縦アクチュエータ103aおよび横アクチュエータ103bは、RGBのうちのG(第3の色)に対応する受光部101bの受光領域を、光学像の左上の画素領域内において、縦画素ピッチおよび横画素ピッチよりも短い距離だけ互いに離れた複数の位置のそれぞれに順に配置する。同様に、縦アクチュエータ103aおよび横アクチュエータ103bは、Bに対応する受光部101bの受光領域を、光学像の右上の画素領域内において、互いに離れた複数の位置のそれぞれに順に配置する。同様に、縦アクチュエータ103aおよび横アクチュエータ103bは、Gに対応する受光部101bの受光領域を、光学像の右下の画素領域内において、互いに離れた複数の位置のそれぞれに順に配置する。同様に、縦アクチュエータ103aおよび横アクチュエータ103bは、Rに対応する受光部101bの受光領域を、光学像の左下の画素領域内において、互いに離れた複数の位置のそれぞれに順に配置する。上述の複数の位置は、4つの位置である。 In this way, the vertical actuator 103a and the horizontal actuator 103b move the light receiving area of the light receiving section 101b corresponding to G (third color) of RGB to the vertical pixel pitch and the horizontal pixel area within the upper left pixel area of the optical image. They are arranged in order at each of a plurality of positions separated from each other by a distance shorter than the pixel pitch. Similarly, the vertical actuator 103a and the horizontal actuator 103b sequentially arrange the light receiving areas of the light receiving section 101b corresponding to B at a plurality of positions apart from each other in the upper right pixel area of the optical image. Similarly, the vertical actuator 103a and the horizontal actuator 103b sequentially arrange the light-receiving regions of the light-receiving unit 101b corresponding to G at a plurality of positions separated from each other in the lower right pixel region of the optical image. Similarly, the vertical actuator 103a and the horizontal actuator 103b sequentially arrange the light-receiving regions of the light-receiving unit 101b corresponding to R at a plurality of positions apart from each other in the lower left pixel region of the optical image. The multiple positions mentioned above are four positions.

合成部108は、左上の画素領域内においてG(第3の色)の受光領域が上述のように互いに異なる位置に配置されたときに、その受光領域に対応する受光部101bから出力されるG(第3の色)の画素データを加算する。これにより、合成部108は、左上の画素領域におけるG(第3の色)の画素値を算出する。同様に、合成部108は、右上の画素領域におけるBの画素値と、右下の画素領域におけるGの画素値と、左下の画素領域におけるRの画素値とを算出する。 When the light receiving regions for G (third color) are arranged at mutually different positions in the upper left pixel region as described above, the synthesizing unit 108 combines G and G output from the light receiving unit 101b corresponding to the light receiving regions. (3rd color) pixel data are added. Thereby, the synthesizing unit 108 calculates the pixel value of G (third color) in the upper left pixel area. Similarly, the synthesizing unit 108 calculates the B pixel value in the upper right pixel region, the G pixel value in the lower right pixel region, and the R pixel value in the lower left pixel region.

また、図10の(b)に示すように、2回目、6回目、10回目、および14回目の撮像では、光学像内の左上の画素領域内において、B(第2の色)の受光領域が左上、右上、右下、および左下の順に配置されて撮像が行われる。同様に、右上の画素領域内において、Gの受光領域が左上、右上、右下、および左下の順に配置されて撮像が行われ、右下の画素領域内において、Rの受光領域が左上、右上、右下、および左下の順に配置されて撮像が行われる。また、左下の画素領域内において、Gの受光領域が左上、右上、右下、および左下の順に配置されて撮像が行われる。 Further, as shown in (b) of FIG. 10 , in the second, sixth, tenth, and fourteenth imaging, the light receiving region of B (second color) in the upper left pixel region in the optical image are arranged in the order of upper left, upper right, lower right, and lower left. Similarly, in the upper right pixel region, the light receiving regions for G are arranged in the order of upper left, upper right, lower right, and lower left, and an image is captured. , the lower right, and the lower left, and the images are captured. Also, in the lower left pixel area, the light receiving areas for G are arranged in the order of the upper left, upper right, lower right, and lower left to perform imaging.

このように、縦アクチュエータ103aおよび横アクチュエータ103bは、RGBのうちのB(第2の色)に対応する受光部101bの受光領域を、光学像の左上の画素領域内において、縦画素ピッチおよび横画素ピッチよりも短い距離だけ互いに離れた複数の位置のそれぞれに順に配置する。その複数の位置は、4つの位置である。そして、シフタ106は、Bの受光部101bから出力される画素データがメモリ105に転送された場合には、そのメモリ105に格納されたBの受光部101bの画素データの画素位置を、G(第3の色)の受光部101bの画素データの画素位置にシフトする。つまり、光学像内の左上の画素領域内における、左上、右上、右下、および左下のそれぞれのBの画素データの画素位置は、その画素領域内における、左上、右上、右下、および左下のそれぞれのG(第3の色)の画素データの画素位置にシフトされる。光学像の右上、右下および左下の画素領域においても、上述と同様に、受光領域がずらされて、画素データの画素位置がシフトされる。 In this way, the vertical actuator 103a and the horizontal actuator 103b move the light receiving area of the light receiving section 101b corresponding to B (second color) of RGB to the vertical pixel pitch and the horizontal pixel area within the upper left pixel area of the optical image. They are arranged in order at each of a plurality of positions separated from each other by a distance shorter than the pixel pitch. The plurality of positions is four positions. When the pixel data output from the B light receiving unit 101b is transferred to the memory 105, the shifter 106 shifts the pixel position of the pixel data of the B light receiving unit 101b stored in the memory 105 to G ( (third color) to the pixel position of the pixel data of the light receiving unit 101b. That is, the pixel positions of the upper left, upper right, lower right, and lower left B pixel data in the upper left pixel area in the optical image are the upper left, upper right, lower right, and lower left pixel positions in the pixel area. It is shifted to the pixel position of each G (third color) pixel data. Also in the upper right, lower right, and lower left pixel regions of the optical image, the light receiving regions are shifted in the same manner as described above, and the pixel positions of the pixel data are shifted.

合成部108は、左上の画素領域内でB(第2の色)の受光領域が上述のように互いに異なる位置に配置されたときに、その受光領域に対応する受光部101bから出力されて、かつシフトされたBの画素データを加算する。これにより、合成部108は、左上の画素領域におけるB(第2の色)の画素値を算出する。同様に、合成部108は、右上の画素領域におけるGの画素値と、右下の画素領域におけるRの画素値と、左下の画素領域におけるGの画素値とを算出する。 When the B (second color) light-receiving regions are arranged at different positions in the upper left pixel region as described above, the synthesizing unit 108 outputs from the light-receiving unit 101b corresponding to the light-receiving regions, and add the shifted B pixel data. Accordingly, the synthesizing unit 108 calculates the pixel value of B (second color) in the upper left pixel area. Similarly, the synthesizing unit 108 calculates the G pixel value in the upper right pixel region, the R pixel value in the lower right pixel region, and the G pixel value in the lower left pixel region.

また、図10の(c)に示すように、3回目、7回目、11回目、および15回目の撮像では、光学像内の左上の画素領域内において、G(第4の色)の受光領域が左上、右上、右下、および左下の順に配置されて撮像が行われる。同様に、右上の画素領域内において、Rの受光領域が左上、右上、右下、および左下の順に配置されて撮像が行われ、右下の画素領域内において、Gの受光領域が左上、右上、右下、および左下の順に配置されて撮像が行われる。また、左下の画素領域内において、Bの受光領域が左上、右上、右下、および左下の順に配置されて撮像が行われる。 Further, as shown in (c) of FIG. 10 , in the third, seventh, eleventh, and fifteenth imaging, the G (fourth color) light-receiving region in the upper left pixel region in the optical image are arranged in the order of upper left, upper right, lower right, and lower left. Similarly, in the upper right pixel region, the R light receiving regions are arranged in the order of upper left, upper right, lower right, and lower left, and the image is captured. , the lower right, and the lower left, and the images are captured. Also, in the lower left pixel area, the light receiving areas of B are arranged in the order of the upper left, upper right, lower right, and lower left for imaging.

このように、縦アクチュエータ103aおよび横アクチュエータ103bは、RGBのうちのG(第4の色)に対応する受光部101bの受光領域を、光学像の左上の画素領域内において、縦画素ピッチおよび横画素ピッチよりも短い距離だけ互いに離れた4つの位置のそれぞれに順に配置する。そして、シフタ106は、G(第4の色)の受光部101bから出力される画素データがメモリ105に転送された場合には、そのメモリ105に格納されたG(第4の色)の受光部101bの画素データの画素位置を、G(第3の色)の受光部101bの画素データの画素位置にシフトする。つまり、光学像内の左上の画素領域内における、左上、右上、右下、および左下のそれぞれのG(第4の色)の画素データの画素位置は、その画素領域内における、左上、右上、右下、および左下のそれぞれのG(第3の色)の画素データの画素位置にシフトされる。光学像の右上、右下および左下の画素領域においても、上述と同様に、受光領域がずらされて、画素データの画素位置がシフトされる。 In this way, the vertical actuator 103a and the horizontal actuator 103b move the light receiving area of the light receiving section 101b corresponding to G (fourth color) of RGB to the vertical pixel pitch and the horizontal pixel area within the upper left pixel area of the optical image. They are placed in turn at each of four positions separated from each other by a distance smaller than the pixel pitch. When the pixel data output from the G (fourth color) light receiving unit 101 b is transferred to the memory 105 , the shifter 106 shifts the G (fourth color) light received stored in the memory 105 to the memory 105 . The pixel position of the pixel data of the unit 101b is shifted to the pixel position of the pixel data of the G (third color) light receiving unit 101b. That is, the pixel positions of the G (fourth color) pixel data in the upper left, upper right, lower right, and lower left pixel regions in the upper left pixel region in the optical image are the upper left, upper right, and It is shifted to the pixel position of the G (third color) pixel data on the lower right and lower left respectively. Also in the upper right, lower right, and lower left pixel regions of the optical image, the light receiving regions are shifted in the same manner as described above, and the pixel positions of the pixel data are shifted.

合成部108は、左上の画素領域内でG(第4の色)の受光領域が上述のように互いに異なる位置に配置されたときに、その受光領域に対応する受光部101bから出力されて、かつシフトされたG(第4の色)の画素データを加算する。これにより、合成部108は、左上の画素領域におけるG(第4の色)の画素値を算出する。同様に、合成部108は、右上の画素領域におけるRの画素値と、右下の画素領域におけるGの画素値と、左下の画素領域におけるBの画素値とを算出する。 When the G (fourth color) light-receiving regions are arranged at different positions in the upper left pixel region as described above, the synthesizing unit 108 outputs from the light-receiving unit 101b corresponding to the light-receiving regions, And the shifted G (fourth color) pixel data is added. Thereby, the synthesizing unit 108 calculates the pixel value of G (fourth color) in the upper left pixel area. Similarly, the synthesizing unit 108 calculates the R pixel value in the upper right pixel region, the G pixel value in the lower right pixel region, and the B pixel value in the lower left pixel region.

また、図10の(d)に示すように、4回目、8回目、12回目、および16回目の撮像では、光学像内の左上の画素領域内において、R(第1の色)の受光領域が左上、右上、右下、および左下の順に配置されて撮像が行われる。同様に、右上の画素領域内において、Gの受光領域が左上、右上、右下、および左下の順に配置されて撮像が行われ、右下の画素領域内において、Bの受光領域が左上、右上、右下、および左下の順に配置されて撮像が行われる。また、左下の画素領域内において、Gの受光領域が左上、右上、右下、および左下の順に配置されて撮像が行われる。 Further, as shown in (d) of FIG. 10 , in the fourth, eighth, twelfth, and sixteenth imaging, the R (first color) light-receiving region in the upper left pixel region in the optical image are arranged in the order of upper left, upper right, lower right, and lower left. Similarly, in the upper right pixel region, the light receiving regions for G are arranged in the order of upper left, upper right, lower right, and lower left, and an image is captured. , the lower right, and the lower left, and the images are captured. Also, in the lower left pixel area, the light receiving areas for G are arranged in the order of the upper left, upper right, lower right, and lower left to perform imaging.

このように、縦アクチュエータ103aおよび横アクチュエータ103bは、RGBのうちのR(第1の色)に対応する受光部101bの受光領域を、光学像の左上の画素領域内において、縦画素ピッチおよび横画素ピッチよりも短い距離だけ互いに離れた4つの位置のそれぞれに順に配置する。そして、シフタ106は、Rの受光部101bから出力される画素データがメモリ105に転送された場合には、そのメモリ105に格納されたRの受光部101bの画素データの画素位置を、G(第3の色)の受光部101bの画素データの画素位置にシフトする。つまり、光学像内の左上の画素領域内における、左上、右上、右下、および左下のそれぞれのRの画素データの画素位置は、その画素領域内における、左上、右上、右下、および左下のそれぞれのG(第3の色)の画素データの画素位置にシフトされる。光学像の右上、右下および左下の画素領域においても、上述と同様に、受光領域がずらされて、画素データの画素位置がシフトされる。 In this way, the vertical actuator 103a and the horizontal actuator 103b move the light receiving area of the light receiving section 101b corresponding to R (first color) of RGB to the vertical pixel pitch and the horizontal pixel area within the upper left pixel area of the optical image. They are placed in turn at each of four positions separated from each other by a distance smaller than the pixel pitch. When the pixel data output from the R light receiving unit 101b is transferred to the memory 105, the shifter 106 shifts the pixel position of the pixel data of the R light receiving unit 101b stored in the memory 105 to G ( (third color) to the pixel position of the pixel data of the light receiving unit 101b. That is, the pixel positions of the upper left, upper right, lower right, and lower left R pixel data in the upper left pixel area in the optical image are the upper left, upper right, lower right, and lower left pixel positions in the pixel area. It is shifted to the pixel position of each G (third color) pixel data. Also in the upper right, lower right, and lower left pixel regions of the optical image, the light receiving regions are shifted in the same manner as described above, and the pixel positions of the pixel data are shifted.

合成部108は、左上の画素領域内でR(第1の色)の受光領域が上述のように互いに異なる位置に配置されたときに、その受光領域に対応する受光部101bから出力されて、かつシフトされたRの画素データを加算する。これにより、合成部108は、左上の画素領域におけるR(第1の色)の画素値を算出する。同様に、合成部108は、右上の画素領域におけるGの画素値と、右下の画素領域におけるBの画素値と、左下の画素領域におけるGの画素値とを算出する。 When the R (first color) light-receiving regions are arranged at different positions in the upper left pixel region as described above, the synthesizing unit 108 outputs from the light-receiving unit 101b corresponding to the light-receiving regions, and add the shifted R pixel data. Thereby, the synthesizing unit 108 calculates the pixel value of R (first color) in the upper left pixel area. Similarly, the synthesizing unit 108 calculates the G pixel value in the upper right pixel region, the B pixel value in the lower right pixel region, and the G pixel value in the lower left pixel region.

上述の処理によって、光学像の各画素領域に対して、Rの画素値とBの画素値とがそれぞれ合成画像に含まれる画素値として算出される。また、合成部108は、上述のように画素領域に対して算出された2つのGの画素値、すなわち第3の色の画素値と第4の色の画素値とを平均化する。これによって、その画素領域に対する1つのGの画素値が、合成画像に含まれる画素値として算出される。 By the above-described processing, the R pixel value and the B pixel value are calculated as the pixel values included in the combined image for each pixel region of the optical image. Further, the synthesizing unit 108 averages the two G pixel values calculated for the pixel region as described above, that is, the pixel value of the third color and the pixel value of the fourth color. As a result, one G pixel value for that pixel area is calculated as the pixel value included in the synthesized image.

なお、上述の処理では、シフタ106は、G(第3の色)以外の色の画素データの画素位置を、G(第3の色)の画素データの画素位置にシフトしたが、そのシフトの方法は、これに限らない。例えば、シフタ106は、R(第1の色)以外の色の画素データの画素位置を、R(第1の色)の画素データの画素位置にシフトしてもよい。 In the above-described processing, the shifter 106 shifts the pixel position of the pixel data of colors other than G (third color) to the pixel position of the pixel data of G (third color). The method is not limited to this. For example, the shifter 106 may shift the pixel position of the pixel data of a color other than R (first color) to the pixel position of the pixel data of R (first color).

図11は、撮像装置100の処理動作を示すフローチャートである。 FIG. 11 is a flow chart showing the processing operation of the imaging device 100. As shown in FIG.

シーケンサ104は、上述の撮像位置を示す移動点位置情報を読み取る(ステップS11)。次に、シーケンサ104は、その読み取られた移動点位置情報によって示される撮像位置に撮像素子101が移動するように、縦アクチュエータ103aおよび横アクチュエータ103bに対して指示する(ステップS12)。 The sequencer 104 reads the movement point position information indicating the imaging position described above (step S11). Next, the sequencer 104 instructs the vertical actuator 103a and the horizontal actuator 103b to move the imaging element 101 to the imaging position indicated by the read movement point position information (step S12).

次に、シーケンサ104は、撮像素子101の撮像位置への移動が完了したか否かを判定する(ステップS13)。移動が完了したと判定すると(ステップS13のT)、シーケンサ104は、撮像素子101に露光させる(ステップS14)。そして、シーケンサ104は、露光が完了したか否かを判定する(ステップS15)。露光が完了したと判定すると(ステップS15のT)、シーケンサ104は、M×N個の画素データをメモリ105に転送する(ステップS16)。シーケンサ104は、画素データの転送が完了したか否かを判定し(ステップS17)、完了したと判定すると(ステップS17のT)、さらに、全移動点、すなわち全ての撮像位置での露光が完了したか否かを判定する(ステップS18)。 Next, the sequencer 104 determines whether or not the movement of the imaging element 101 to the imaging position has been completed (step S13). When it is determined that the movement has been completed (T in step S13), the sequencer 104 exposes the image sensor 101 (step S14). The sequencer 104 then determines whether or not the exposure has been completed (step S15). When it is determined that the exposure has been completed (T in step S15), the sequencer 104 transfers M×N pixel data to the memory 105 (step S16). The sequencer 104 determines whether or not the transfer of pixel data has been completed (step S17), and when it is determined that the transfer has been completed (T in step S17), exposure at all movement points, that is, all imaging positions is completed. It is determined whether or not (step S18).

ここで、全ての撮像位置での露光が完了していないと判定すると(ステップS18のF)、シーケンサ104は、ステップS11からの処理を繰り返し実行する。一方、全ての撮像位置での露光が完了したと判定されると、合成部108は、その画素データから合成画像を生成する(ステップS19)。 Here, if it is determined that exposure has not been completed at all imaging positions (F of step S18), the sequencer 104 repeats the processing from step S11. On the other hand, when it is determined that exposure has been completed at all imaging positions, the synthesizing unit 108 generates a synthesized image from the pixel data (step S19).

このように、本実施の形態では、画素領域内において受光領域が複数回ずらされ、そのずらされた位置において露光が行われる。したがって、画素領域に対する撮像素子101の開口率を等価的に上げることができる。つまり、撮像素子101における複数の受光部101bが互いに離間して配置されている場合には、それらの複数の受光部101bの間に非受光領域が存在する。このような非受光領域を有する撮像素子101では、非受光領域がない撮像素子と比べて、1つの受光部101bにおける開口率が低い。その結果、光学像を構成する複数の画素領域のそれぞれにおいて、その画素領域内の広い範囲で光を受けることができない。したがって、例えば図3に示すような撮像素子の位置決め誤差が生じた場合には、1つの色の画素データを、他の色の画素データと比べて適切に取得することができない。しかし、本実施の形態における撮像装置100では、例えばGなどの第1の色に対応する第1受光部101bの受光領域が画素領域内において複数の位置に順に配置され、それらの位置では、露光によってその第1受光部101bから画素データが出力される。これにより、非受光領域に投影される光も捉えることができ、非受光領域の実質的な面積を小さく抑えることができる。言い換えれば、画素領域に対して受光領域が小さくても、仮想的にその受光領域を大きくすることができる。つまり、上述のように開口率を等価的に上げることができる。したがって、上述のような撮像素子の位置決め誤差が生じても、色むらの発生を抑えることができる。また、本実施の形態における撮像装置100では、1つの色に対応する受光領域が画素領域内の1つの位置だけでなく複数の位置に順に配置される。したがって、1回の位置決め誤差による色むらへの影響を抑えることができる。また、位置決め誤差が複数回生じても、それらの位置決め誤差がランダムであれば、それらの位置決め誤差の色むらに対する影響を抑えることができる。 As described above, in the present embodiment, the light-receiving region is shifted a plurality of times within the pixel region, and exposure is performed at the shifted positions. Therefore, it is possible to equivalently increase the aperture ratio of the image sensor 101 with respect to the pixel area. In other words, when the plurality of light receiving portions 101b in the image sensor 101 are arranged apart from each other, non-light receiving regions exist between the plurality of light receiving portions 101b. The image sensor 101 having such a non-light-receiving region has a lower aperture ratio in one light-receiving portion 101b than an image sensor having no non-light-receiving region. As a result, in each of the plurality of pixel regions forming the optical image, light cannot be received over a wide range within the pixel region. Therefore, for example, when a positioning error of the imaging device as shown in FIG. 3 occurs, pixel data of one color cannot be obtained more appropriately than pixel data of other colors. However, in the imaging device 100 according to the present embodiment, the light receiving regions of the first light receiving unit 101b corresponding to the first color such as G are sequentially arranged at a plurality of positions within the pixel region, and exposure is not possible at those positions. , the pixel data is output from the first light receiving unit 101b. As a result, the light projected onto the non-light-receiving region can also be captured, and the substantial area of the non-light-receiving region can be reduced. In other words, even if the light receiving area is smaller than the pixel area, the light receiving area can be virtually enlarged. That is, the aperture ratio can be equivalently increased as described above. Therefore, even if the positioning error of the imaging element as described above occurs, the occurrence of color unevenness can be suppressed. Further, in the imaging device 100 according to the present embodiment, the light receiving regions corresponding to one color are arranged not only at one position within the pixel region but also at a plurality of positions in sequence. Therefore, it is possible to suppress the influence of a single positioning error on color unevenness. Further, even if positioning errors occur multiple times, if the positioning errors are random, the influence of the positioning errors on color unevenness can be suppressed.

(変形例)
上記実施の形態における撮像装置100の撮像素子101では、カラーフィルタ101aの複数の透光部111は、ベイヤー配列にしたがって配置されている。しかし、本開示の撮像装置の撮像素子は、このようなべイヤー配列に限定されない。本変形例における撮像装置の撮像素子では、複数の透光部111はデルタ配列にしたがって配置されている。
(Modification)
In the imaging device 101 of the imaging device 100 in the above embodiment, the plurality of translucent portions 111 of the color filter 101a are arranged according to the Bayer arrangement. However, the imaging device of the imaging device of the present disclosure is not limited to such a Bayer arrangement. In the imaging element of the imaging apparatus according to this modified example, the plurality of translucent portions 111 are arranged according to a delta arrangement.

図12は、本変形例における撮像装置の構成を示すブロック図である。 FIG. 12 is a block diagram showing the configuration of an imaging device in this modified example.

本実施の形態における撮像装置200は、デルタ配列の撮像素子201と、レンズ102と、縦アクチュエータ103aと、横アクチュエータ103bと、シーケンサ104と、メモリ105と、シフタ106と、RGB分解部107と、合成部108とを備える。つまり、本変形例における撮像装置200は、図4に示す撮像装置100におけるベイヤー配列の撮像素子101の代わりに、デルタ配列の撮像素子201を備える。つまり、撮像素子201のカラーフィルタに含まれる複数の透光部111の配列は、デルタ配列である。また、撮像素子201では、図12に示すように、横画素ピッチは、縦画素ピッチよりも長い。 The imaging apparatus 200 according to the present embodiment includes a delta array imaging element 201, a lens 102, a vertical actuator 103a, a horizontal actuator 103b, a sequencer 104, a memory 105, a shifter 106, an RGB decomposition unit 107, and a synthesizing unit 108 . In other words, the imaging device 200 in this modified example includes a delta array imaging device 201 instead of the Bayer array imaging device 101 in the imaging device 100 shown in FIG. In other words, the arrangement of the plurality of translucent portions 111 included in the color filter of the imaging element 201 is a delta arrangement. Further, in the image sensor 201, as shown in FIG. 12, the horizontal pixel pitch is longer than the vertical pixel pitch.

図13は、メモリ105、シフタ106、RGB分解部107および合成部108の処理を説明するための図である。図14は、光学像に対する撮像素子201の撮像面の相対位置の変化を示す図である。図15は、シーケンサ104および撮像素子201のそれぞれの動作モードの遷移と、撮像素子201の動きとを示す図である。なお、図13に示す例では、撮像素子201は、M×N個の受光部101bを有する。また、図14および図15における1~18の数字は、撮像の順番を示す。 FIG. 13 is a diagram for explaining the processing of memory 105, shifter 106, RGB decomposing unit 107, and synthesizing unit 108. FIG. FIG. 14 is a diagram showing changes in the relative position of the imaging surface of the imaging element 201 with respect to the optical image. 15A and 15B are diagrams showing the transition of the operation modes of the sequencer 104 and the image sensor 201 and the movement of the image sensor 201. FIG. In the example shown in FIG. 13, the imaging device 201 has M×N light receiving units 101b. The numbers 1 to 18 in FIGS. 14 and 15 indicate the order of imaging.

シーケンサ104は、図15に示すように、縦アクチュエータ103aおよび横アクチュエータ103bを制御することにより、撮像素子201の移動と停止とを繰り返し行う。これにより、シーケンサ104は、撮像素子101をそれぞれ異なる撮像位置に順に移動させる。例えば、シーケンサ104は、図14に示すように、撮像素子101を18カ所の撮像位置に順に移動させて、それらの撮像位置で撮像素子201を停止させる。そして、シーケンサ104は、撮像素子201が撮像位置に停止するごとに、撮像素子101の露光によって、M×N個の受光部101bのそれぞれから画素データを出力させる。このとき、シーケンサ104は、M×N個の受光部101bのそれぞれから出力される画素データをメモリ105の領域に格納する。 As shown in FIG. 15, the sequencer 104 repeatedly moves and stops the imaging device 201 by controlling the vertical actuator 103a and the horizontal actuator 103b. Thereby, the sequencer 104 sequentially moves the image sensor 101 to different imaging positions. For example, as shown in FIG. 14, the sequencer 104 sequentially moves the image pickup device 101 to 18 image pickup positions and stops the image pickup device 201 at those image pickup positions. Then, the sequencer 104 outputs pixel data from each of the M×N light receiving units 101b by exposing the image sensor 101 every time the image sensor 201 stops at the imaging position. At this time, the sequencer 104 stores the pixel data output from each of the M×N light receiving units 101 b in the area of the memory 105 .

具体的には、シーケンサ104は、1回目の撮像では、1番目の撮像位置である第1初期位置に撮像素子101を停止させ、このときに、その撮像素子101に撮像(すなわち露光)させる。第1初期位置では、例えば図14に示すように、光学像の上端にGの受光領域が配置される。そして、シーケンサ104は、2番目の撮像位置に撮像素子101を移動させながら、1回目の撮像によって得られた撮像素子201のM×N個の画素データを、メモリ105の第1領域1aに転送する。このとき、M×N個の画素データのそれぞれは、M×N個の画素からなる撮像画像の画素位置に対応付けて第1領域1aに格納される。 Specifically, in the first imaging, the sequencer 104 stops the imaging device 101 at the first initial position, which is the first imaging position, and causes the imaging device 101 to perform imaging (that is, exposure) at this time. At the first initial position, for example, as shown in FIG. 14, the G light receiving area is arranged at the upper end of the optical image. Then, the sequencer 104 transfers the M×N pixel data of the image pickup device 201 obtained by the first image pickup to the first area 1a of the memory 105 while moving the image pickup device 101 to the second image pickup position. do. At this time, each of the M×N pieces of pixel data is stored in the first area 1a in association with the pixel position of the picked-up image composed of M×N pieces of pixels.

RGB分解部107は、そのM×N個の画素データをRの画素データ、Gの画素データ、およびBの画素データに分解して、合成部108に出力する。 The RGB decomposing unit 107 decomposes the M×N pixel data into R pixel data, G pixel data, and B pixel data, and outputs the R pixel data, G pixel data, and B pixel data to the synthesizing unit 108 .

シーケンサ104は、2番目の撮像位置に撮像素子201を移動させるときには、図14および図15に示すように、撮像素子201を第1初期位置から左に横画素ピッチの1/2だけ移動させ、上に縦画素ピッチだけ移動させて停止させる。そして、シーケンサ104は、撮像素子201に2回目の撮像(すなわち露光)をさせる。シーケンサ104は、3番目の撮像位置に撮像素子201を移動させながら、2回目の撮像によって得られた撮像素子201のM×N個の画素データを、メモリ105の第2領域1bに転送する。このときにも、M×N個の画素データのそれぞれは、撮像画像における画素位置に対応付けて第2領域1bに格納される。 When the sequencer 104 moves the image sensor 201 to the second imaging position, as shown in FIGS. 14 and 15, the sequencer 104 moves the image sensor 201 to the left from the first initial position by 1/2 of the horizontal pixel pitch, It is moved upward by the vertical pixel pitch and stopped. Then, the sequencer 104 causes the imaging element 201 to perform the second imaging (that is, exposure). The sequencer 104 transfers the M×N pixel data of the image sensor 201 obtained by the second imaging to the second area 1b of the memory 105 while moving the image sensor 201 to the third imaging position. Also at this time, each of the M×N pieces of pixel data is stored in the second area 1b in association with the pixel position in the captured image.

シフタ106は、この第2領域1bに格納にされているM×N個の画素データのそれぞれの画素位置をシフトする。これにより、2回目の撮像によって得られたM×N個の画素データのそれぞれの画素位置は、撮像素子201が第1初期位置に配置されているときの画素位置にシフトされる。 The shifter 106 shifts the pixel position of each of the M×N pieces of pixel data stored in the second area 1b. As a result, the pixel position of each of the M×N pieces of pixel data obtained by the second imaging is shifted to the pixel position when the imaging element 201 is arranged at the first initial position.

RGB分解部107は、そのシフトされたM×N個の画素データを、Rの画素データ、Gの画素データ、およびBの画素データに分解して、合成部108に出力する。 The RGB decomposing unit 107 decomposes the shifted M×N pixel data into R pixel data, G pixel data, and B pixel data, and outputs them to the synthesizing unit 108 .

シーケンサ104は、3番目の撮像位置に撮像素子201を移動させるときには、図14および図15に示すように、撮像素子201を2番目の撮像位置から右に横画素ピッチだけ移動させて停止させる。そして、シーケンサ104は、撮像素子201に3回目の撮像(すなわち露光)をさせる。シーケンサ104は、4番目の撮像位置に撮像素子201を移動させながら、3回目の撮像によって得られた撮像素子201のM×N個の画素データを、メモリ105の第3領域1cに転送する。このときにも、M×N個の画素データのそれぞれは、撮像画像における画素位置に対応付けて第3領域1cに格納される。 When the sequencer 104 moves the image pickup device 201 to the third image pickup position, as shown in FIGS. 14 and 15, the sequencer 104 moves the image pickup device 201 from the second image pickup position to the right by the horizontal pixel pitch and stops. Then, the sequencer 104 causes the imaging element 201 to perform the third imaging (that is, exposure). The sequencer 104 transfers the M×N pixel data of the image sensor 201 obtained by the third imaging to the third area 1c of the memory 105 while moving the image sensor 201 to the fourth imaging position. Also at this time, each of the M×N pieces of pixel data is stored in the third area 1c in association with the pixel position in the captured image.

シフタ106は、この第3領域1cに格納にされているM×N個の画素データのそれぞれの画素位置をシフトする。これにより、3回目の撮像によって得られたM×N個の画素データのそれぞれの画素位置は、撮像素子101が第1初期位置に配置されているときの画素位置にシフトされる。 The shifter 106 shifts the pixel positions of the M×N pieces of pixel data stored in the third area 1c. As a result, the pixel positions of the M×N pieces of pixel data obtained by the third imaging are shifted to the pixel positions when the imaging element 101 is arranged at the first initial position.

RGB分解部107は、そのシフトされたM×N個の画素データを、Rの画素データ、Gの画素データ、およびBの画素データに分解して、合成部108に出力する。 The RGB decomposing unit 107 decomposes the shifted M×N pixel data into R pixel data, G pixel data, and B pixel data, and outputs them to the synthesizing unit 108 .

このような、1回目~3回目の撮像によって、撮像素子201が第1初期位置に配置されているときの撮像画像の複数の画素位置のそれぞれに対応付けられた、Rの画素データと、Gの画素データと、Bの画素データとが合成部108に出力される。 By such first to third imaging, R pixel data and G and the pixel data of B are output to the synthesizing unit 108 .

ここで、シーケンサ104は、4番目の撮像位置である第2初期位置に撮像素子201を移動させる。このときには、シーケンサ104は、図14および図15に示すように、撮像素子201を3番目の撮像位置から、左に横画素ピッチの1/2の距離だけ移動させ、さらに、下に縦画素ピッチ以上移動させて停止させる。図14に示すように、撮像素子201が第2初期位置にあるときには、撮像素子201が第1初期位置にあるときに光学像と重なっていた各受光領域は、縦画素ピッチおよび横画素ピッチよりも短い距離だけずれている。 Here, the sequencer 104 moves the imaging element 201 to the second initial position, which is the fourth imaging position. At this time, as shown in FIGS. 14 and 15, the sequencer 104 moves the image sensor 201 from the third image pickup position to the left by a distance of 1/2 of the horizontal pixel pitch, and further downward by the vertical pixel pitch. Move it above and stop it. As shown in FIG. 14, when the image pickup device 201 is at the second initial position, each light receiving region that overlaps with the optical image when the image pickup device 201 is at the first initial position is shifted from the vertical pixel pitch and the horizontal pixel pitch. are also shifted by a short distance.

そして、シーケンサ104は、撮像素子201に4回目の撮像(すなわち露光)をさせる。シーケンサ104は、5番目の撮像位置に撮像素子201を移動させながら、4回目の撮像によって得られた撮像素子201のM×N個の画素データを、メモリ105の第4領域2aに転送する。このとき、M×N個の画素データのそれぞれは、M×N個の画素からなる撮像画像の画素位置に対応付けて第4領域2aに格納される。 Then, the sequencer 104 causes the imaging element 201 to perform fourth imaging (that is, exposure). The sequencer 104 transfers the M×N pixel data of the image pickup device 201 obtained by the fourth image pickup to the fourth area 2 a of the memory 105 while moving the image pickup device 201 to the fifth image pickup position. At this time, each of the M×N pieces of pixel data is stored in the fourth area 2a in association with the pixel position of the picked-up image made up of M×N pieces of pixels.

RGB分解部107は、そのM×N個の画素データをRの画素データ、Gの画素データ、およびBの画素データに分解して、合成部108に出力する。 The RGB decomposing unit 107 decomposes the M×N pixel data into R pixel data, G pixel data, and B pixel data, and outputs the R pixel data, G pixel data, and B pixel data to the synthesizing unit 108 .

シーケンサ104は、5回目および6回目の撮像を行うために、第1初期位置の代わりに第2初期位置に基づいて、2回目および3回目の撮像と同様の処理を行う。 In order to perform the fifth and sixth imaging, the sequencer 104 performs processing similar to that of the second and third imaging based on the second initial position instead of the first initial position.

このような、4回目~6回目の撮像によって、撮像素子201が第2初期位置に配置されているときの撮像画像の複数の画素位置のそれぞれに対応付けられた、Rの画素データと、Gの画素データと、Bの画素データとが合成部108に出力される。 As a result of the fourth to sixth imaging, R pixel data and G and the pixel data of B are output to the synthesizing unit 108 .

次に、シーケンサ104は、7番目の初期位置である第3初期位置に撮像素子201を移動させる。そして、シーケンサ104は、7回目~9回目の撮像を行うために、第1初期位置の代わりに第3初期位置に基づいて、1回目~3回目の撮像と同様の処理を行う。 Next, the sequencer 104 moves the image sensor 201 to the third initial position, which is the seventh initial position. Then, in order to perform the seventh to ninth imaging, the sequencer 104 performs the same processing as the first to third imaging based on the third initial position instead of the first initial position.

このような、7回目~9回目の撮像によって、撮像素子201が第3初期位置に配置されているときの撮像画像の複数の画素位置のそれぞれに対応付けられた、Rの画素データと、Gの画素データと、Bの画素データとが合成部108に出力される。 By performing the seventh to ninth imaging, R pixel data and G and the pixel data of B are output to the synthesizing unit 108 .

次に、シーケンサ104は、10番目の初期位置である第4初期位置に撮像素子201を移動させる。そして、シーケンサ104は、10回目~12回目の撮像を行うために、第1初期位置の代わりに第4初期位置に基づいて、1回目~3回目の撮像と同様の処理を行う。 Next, the sequencer 104 moves the image sensor 201 to the fourth initial position, which is the tenth initial position. Then, in order to perform the 10th to 12th imaging, the sequencer 104 performs the same processing as the 1st to 3rd imaging based on the fourth initial position instead of the first initial position.

このような、10回目~12回目の撮像によって、撮像素子201が第4初期位置に配置されているときの撮像画像の複数の画素位置のそれぞれに対応付けられた、Rの画素データと、Gの画素データと、Bの画素データとが合成部108に出力される。 As a result of the 10th to 12th imaging, R pixel data and G and the pixel data of B are output to the synthesizing unit 108 .

次に、シーケンサ104は、13番目の初期位置である第5初期位置に撮像素子201を移動させる。そして、シーケンサ104は、13回目~15回目の撮像を行うために、第1初期位置の代わりに第5初期位置に基づいて、1回目~3回目の撮像と同様の処理を行う。 Next, the sequencer 104 moves the image sensor 201 to the fifth initial position, which is the 13th initial position. Then, in order to perform the 13th to 15th imaging, the sequencer 104 performs the same processing as for the 1st to 3rd imaging based on the fifth initial position instead of the first initial position.

このような、13回目~15回目の撮像によって、撮像素子201が第5初期位置に配置されているときの撮像画像の複数の画素位置のそれぞれに対応付けられた、Rの画素データと、Gの画素データと、Bの画素データとが合成部108に出力される。 By such 13th to 15th imaging, R pixel data and G and the pixel data of B are output to the synthesizing unit 108 .

そして、シーケンサ104は、16番目の初期位置である第6初期位置に撮像素子201を移動させる。そして、シーケンサ104は、16回目~18回目の撮像を行うために、第1初期位置の代わりに第6初期位置に基づいて、1回目~3回目の撮像と同様の処理を行う。 Then, the sequencer 104 moves the image sensor 201 to the sixth initial position, which is the sixteenth initial position. Then, in order to perform the 16th to 18th imaging, the sequencer 104 performs the same processing as for the 1st to 3rd imaging based on the sixth initial position instead of the first initial position.

このような、16回目~18回目の撮像によって、撮像素子201が第6初期位置に配置されているときの撮像画像の複数の画素位置のそれぞれに対応付けられた、Rの画素データと、Gの画素データと、Bの画素データとが合成部108に出力される。 By such 16th to 18th imaging, R pixel data and G and the pixel data of B are output to the synthesizing unit 108 .

図16は、本変形例において画素領域内の受光領域のずれを示す図である。 FIG. 16 is a diagram showing the shift of the light receiving area within the pixel area in this modified example.

シーケンサ104は、光学像における画素領域に対して例えばGの受光領域が図16の(a)~(f)に示す位置にずれるように、撮像素子201を移動させる。この図16に示す例では、シーケンサ104は、縦アクチュエータ103aおよび横アクチュエータ103bを制御することによって、Gの受光領域を、画素領域内における6つの位置に順に配置する。これらの6つの位置は、複数の受光部101bの間隔、すなわち縦画素ピッチおよび横画素ピッチよりも短い距離だけ互いに離れている。 The sequencer 104 moves the imaging device 201 so that the light receiving area of G, for example, shifts to the positions shown in (a) to (f) of FIG. 16 with respect to the pixel area in the optical image. In the example shown in FIG. 16, the sequencer 104 sequentially arranges the G light-receiving regions at six positions within the pixel region by controlling the vertical actuator 103a and the horizontal actuator 103b. These six positions are separated from each other by a distance shorter than the distance between the plurality of light receiving portions 101b, that is, the vertical pixel pitch and the horizontal pixel pitch.

合成部108は、画素領域内でGの受光領域が上述のように互いに異なる位置に配置されたときに、その受光領域に対応する受光部101bから出力されて、かつシフトされたGの画素データを加算する。これにより、合成部108は、その画素領域におけるGの画素値を、合成画像に含まれる画素値として算出する。同様に、合成部108は、その画素領域におけるRの画素値およびBの画素値をそれぞれ、合成画像に含まれる画素値として算出する。 When the G light receiving regions are arranged at different positions in the pixel region as described above, the synthesizing unit 108 outputs the shifted G pixel data from the light receiving unit 101b corresponding to the light receiving regions. is added. Thereby, the synthesizing unit 108 calculates the pixel value of G in the pixel area as the pixel value included in the synthesized image. Similarly, the synthesizing unit 108 calculates the R pixel value and the B pixel value in the pixel region as pixel values included in the synthesized image.

以上、本変形例のように、デルタ配列の撮像素子201を備えた撮像装置200であっても、画素領域内において受光領域が複数回ずらされ、そのずらされた位置において露光が行われる。したがって、上記実施の形態と同様に、画素領域に対する撮像素子201の開口率を等価的に上げることができる。その結果、撮像素子201の位置決め誤差が生じても、色むらの発生を抑えることができる。 As described above, even in the imaging apparatus 200 including the imaging device 201 in the delta arrangement, the light receiving area is shifted multiple times within the pixel area, and exposure is performed at the shifted positions. Therefore, similarly to the above embodiment, the aperture ratio of the image sensor 201 with respect to the pixel area can be equivalently increased. As a result, even if a positioning error occurs in the imaging element 201, it is possible to suppress the occurrence of color unevenness.

なお、上記実施の形態および変形例において、シーケンサ104、シフタ106、RGB分解部107および合成部108などの各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記実施の形態および変形例の撮像装置などを実現するソフトウェアは、図11に示すフローチャートの各ステップをコンピュータに実行させるプログラムである。 In the above embodiment and modifications, each component such as the sequencer 104, the shifter 106, the RGB decomposition unit 107, and the synthesis unit 108 is configured by dedicated hardware, or a software program suitable for each component. may be implemented by executing Each component may be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU or processor. Here, the software that implements the image capturing apparatus of the above embodiments and modified examples is a program that causes a computer to execute each step of the flowchart shown in FIG. 11 .

以上、本開示に係る撮像装置について、実施の形態およびその変形例に基づいて説明したが、本開示は、この実施の形態およびその変形例に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の範囲内に含まれてもよい。 As described above, the imaging apparatus according to the present disclosure has been described based on the embodiment and its modification, but the present disclosure is not limited to this embodiment and its modification. As long as it does not deviate from the spirit of the present disclosure, various modifications that can be conceived by those skilled in the art are applied to the present embodiment, and forms constructed by combining the components of different embodiments are also included within the scope of the present disclosure. may

例えば、上記実施の形態およびその変形例では、撮像装置は、ベイヤー配列またはデルタ配列の撮像素子を備えているが、これらの撮像素子の代わりに、他の配列の撮像素子を備えていてもよい。このような場合でも、撮像素子の開口率を上げることができ、色むらの発生を抑えることができる。また、図8および図14に示す撮像素子の移動順序は、一例であって、他の順序で撮像素子を移動させてもよい。 For example, in the above-described embodiments and their modifications, the imaging device includes the imaging elements of the Bayer array or the delta array, but instead of these imaging elements, it may include imaging elements of other arrays. . Even in such a case, the aperture ratio of the image sensor can be increased, and the occurrence of color unevenness can be suppressed. Also, the order of movement of the imaging elements shown in FIGS. 8 and 14 is an example, and the imaging elements may be moved in another order.

また、上記実施の形態およびその変形例では、シーケンサ104は、縦アクチュエータ103aおよび横アクチュエータ103bを制御することによって、撮像素子を移動させたが、レンズ102を含む光学系を移動させてもよい。つまり、本開示では、光学像に対する撮像素子の撮像面の相対位置を変化させるためには、撮像素子を移動させてもよく、光学系を移動させてもよい。また、撮像素子および光学系の両方を移動させてもよい。 In the above embodiment and its modification, the sequencer 104 moves the image sensor by controlling the vertical actuator 103a and the horizontal actuator 103b, but the optical system including the lens 102 may be moved. That is, in the present disclosure, the imaging device may be moved or the optical system may be moved in order to change the relative position of the imaging surface of the imaging device with respect to the optical image. Alternatively, both the imaging element and the optical system may be moved.

また、上記実施の形態およびその変形例では、カラーフィルタ101aの色は、RGBであるが、これに限らず、例えばシアン、マゼンダ、イエローおよびグリーンなどであってもよい。 In addition, in the above-described embodiment and its modification, the color of the color filter 101a is RGB, but it is not limited to this, and may be, for example, cyan, magenta, yellow, green, or the like.

本開示に係る撮像装置は、画質を向上することができるという効果を奏し、例えばカメラなどに利用可能である。 The imaging device according to the present disclosure has the effect of improving image quality, and can be used for cameras, for example.

100、200 撮像装置
101、201 撮像素子
101a カラーフィルタ
101b 受光部
102 レンズ
103a 縦アクチュエータ(駆動部)
103b 横アクチュエータ(駆動部)
104 シーケンサ
105 メモリ
106 シフタ
107 RGB分解部
108 合成部
111 透光部
Reference Signs List 100, 200 imaging device 101, 201 imaging device 101a color filter 101b light receiving unit 102 lens 103a vertical actuator (driving unit)
103b Lateral actuator (drive unit)
104 sequencer 105 memory 106 shifter 107 RGB decomposing unit 108 synthesizing unit 111 translucent unit

Claims (8)

それぞれ一面に沿って画素ピッチおきに互いに離間して配置され、カラーフィルタに含まれるRGBのうちの何れかの色の透光部を透過した光を受光する複数の受光部を有する撮像素子と、
前記撮像素子の撮像面に投影される光学像に対して前記撮像面内における相対位置を変化させる駆動部と、
前記撮像素子が露光されるごとに前記撮像素子の前記複数の受光部のそれぞれから出力される画素データを合成することによって、合成画像を生成する合成部とを備え、
前記RGBのうちの何れかの色である第1の色に対応する第1受光部の受光領域は、前記光学像の1つの画素領域内に位置し、
前記駆動部は、
前記第1受光部の受光領域を、前記1つの画素領域内において、前記画素ピッチよりも短い距離だけ互いに離れた複数の位置のそれぞれに順に配置し、
前記合成部は、
前記画素領域内において前記第1受光部の受光領域が前記複数の位置のそれぞれに順に配置されたときに前記第1受光部から出力される画素データに基づいて前記合成画像を生成し、
前記光学像における前記画素領域は、
前記撮像面における1つの受光部の受光領域の全体と、前記受光領域の周囲の非受光領域とに重なり、かつ、他の受光部の受光領域に重ならない大きさを有する、
撮像装置。
an image pickup device having a plurality of light receiving portions that are spaced apart from each other at every pixel pitch along one surface and receive light that has passed through a light transmitting portion of any one of RGB colors included in the color filter;
a driving unit that changes a relative position within the imaging plane with respect to an optical image projected on the imaging plane of the imaging device;
a synthesizing unit that generates a synthesized image by synthesizing pixel data output from each of the plurality of light receiving units of the imaging element each time the imaging element is exposed;
a light-receiving region of the first light-receiving unit corresponding to a first color that is one of the RGB colors is located within one pixel region of the optical image;
The drive unit
The light receiving regions of the first light receiving unit are arranged in sequence at a plurality of positions separated from each other by a distance shorter than the pixel pitch in the one pixel region,
The synthesizing unit
generating the composite image based on pixel data output from the first light receiving unit when the light receiving areas of the first light receiving unit are arranged in order at each of the plurality of positions in the pixel area;
The pixel area in the optical image is
It has a size that overlaps the entire light receiving area of one light receiving unit on the imaging surface and a non-light receiving area around the light receiving area, and does not overlap the light receiving area of another light receiving unit.
Imaging device.
前記駆動部は、
前記第1受光部の受光領域を、前記1つの画素領域外の複数の位置のそれぞれに順に配置し、
前記合成部は、
前記画素領域内および前記画素領域外において前記第1受光部の受光領域が前記複数の位置のそれぞれに順に配置されたときに前記第1受光部から出力される画素データに基づいて前記合成画像を生成する
請求項1に記載の撮像装置。
The drive unit
arranging the light receiving regions of the first light receiving unit in order at each of a plurality of positions outside the one pixel region;
The synthesizing unit
The composite image is generated based on pixel data output from the first light receiving unit when the light receiving regions of the first light receiving unit are sequentially arranged at each of the plurality of positions within the pixel region and outside the pixel region. The imaging device according to claim 1, wherein the image is generated.
前記撮像装置は、さらに、
前記撮像素子の前記複数の受光部のそれぞれから出力される画素データを格納するためのメモリと、
前記メモリに格納された画素データの画素位置をシフトするシフタとを備え、
前記駆動部は、さらに、
前記相対位置を前記画素領域外に変化させることによって、前記RGBのうちの前記第1の色と異なる第2の色に対応する第2受光部の受光領域を、前記画素領域内における前記複数の位置のそれぞれに順に配置し、
前記シフタは、
前記第2受光部から出力される画素データが前記メモリに転送された場合には、前記メモリに格納された前記第2受光部の画素データの画素位置を、前記第1受光部の画素データの画素位置にシフトし、
前記合成部は、
前記画素領域内において前記第2受光部の受光領域が前記複数の位置のそれぞれに順に配置されたときに前記第2受光部から出力されて、かつシフトされた画素データを加算することによって、前記画素領域における前記第2の色の画素値を、前記合成画像に含まれる画素値として算出する
請求項2に記載の撮像装置。
The imaging device further comprises
a memory for storing pixel data output from each of the plurality of light receiving units of the imaging device;
a shifter that shifts the pixel position of the pixel data stored in the memory;
The drive unit further
By changing the relative position to the outside of the pixel area, the light receiving area of the second light receiving section corresponding to a second color different from the first color among the RGB is shifted to the plurality of light receiving areas within the pixel area. placed in each of the positions in turn,
The shifter is
When the pixel data output from the second light receiving section is transferred to the memory, the pixel position of the pixel data of the second light receiving section stored in the memory is replaced with the pixel position of the pixel data of the first light receiving section. Shift to pixel position,
The synthesizing unit
By adding the shifted pixel data output from the second light receiving unit when the light receiving regions of the second light receiving unit are arranged in order at each of the plurality of positions in the pixel region, The imaging device according to claim 2, wherein the pixel value of the second color in the pixel area is calculated as the pixel value included in the composite image.
それぞれ一面に沿って画素ピッチおきに互いに離間して配置され、カラーフィルタに含まれるRGBのうちの何れかの色の透光部を透過した光を受光する複数の受光部を有する撮像素子と、
前記撮像素子の撮像面に投影される光学像に対して前記撮像面内における相対位置を変化させる駆動部と、
前記撮像素子が露光されるごとに前記撮像素子の前記複数の受光部のそれぞれから出力される画素データを合成することによって、合成画像を生成する合成部とを備え、
前記カラーフィルタに含まれる複数の前記透光部の配列は、ベイヤー配列であり、
前記駆動部は、
前記RGBのうちの何れかの色である第1の色に対応する第1受光部の受光領域を、前記光学像の1つの画素領域内において、前記画素ピッチよりも短い距離だけ互いに離れた複数の位置のそれぞれに順に配置し、さらに、前記第1受光部の受光領域を、前記1つの画素領域外の複数の位置のそれぞれに順に配置し、
前記画素領域内の配置を4回、これを1組として、前記画素領域外の配置が4回、合計16回の配置を行い、
前記合成部は、
前記画素領域内および前記画素領域外において前記第1受光部の受光領域が前記複数の位置のそれぞれに順に配置されたときに前記第1受光部から出力される画素データに基づいて前記合成画像を生成する、
撮像装置。
an image pickup device having a plurality of light receiving portions that are spaced apart from each other at every pixel pitch along one surface and receive light that has passed through a light transmitting portion of any one of RGB colors included in the color filter;
a driving unit that changes a relative position within the imaging plane with respect to an optical image projected on the imaging plane of the imaging device;
a synthesizing unit that generates a synthesized image by synthesizing pixel data output from each of the plurality of light receiving units of the imaging element each time the imaging element is exposed;
The arrangement of the plurality of light-transmitting parts included in the color filter is a Bayer arrangement,
The drive unit
a plurality of light receiving regions of the first light receiving unit corresponding to a first color, which is one of the RGB colors, separated from each other by a distance shorter than the pixel pitch in one pixel region of the optical image; and sequentially arranging the light-receiving regions of the first light-receiving unit at each of a plurality of positions outside the one pixel region,
Arrangement within the pixel region is performed four times as one set, and arrangement outside the pixel region is performed four times, for a total of 16 times ;
The synthesizing unit
The composite image is generated based on pixel data output from the first light receiving unit when the light receiving regions of the first light receiving unit are sequentially arranged at each of the plurality of positions within the pixel region and outside the pixel region. generate,
Imaging device.
それぞれ一面に沿って画素ピッチおきに互いに離間して配置され、カラーフィルタに含まれるRGBのうちの何れかの色の透光部を透過した光を受光する複数の受光部を有する撮像素子と、
前記撮像素子の撮像面に投影される光学像に対して前記撮像面内における相対位置を変化させる駆動部と、
前記撮像素子が露光されるごとに前記撮像素子の前記複数の受光部のそれぞれから出力される画素データを合成することによって、合成画像を生成する合成部と、
前記撮像素子の前記複数の受光部のそれぞれから出力される画素データを格納するためのメモリと、
前記メモリに格納された画素データの画素位置をシフトするシフタとを備え、
第1の色であるRに対応する第1受光部の受光領域は、前記光学像の1つの画素領域内に位置し、
前記カラーフィルタは、それぞれRの透光部と、2つのGの透光部と、Bの透光部とを含む複数の組からなり、
前記駆動部は、前記相対位置を変化させることによって、
前記第1受光部の受光領域を、前記1つの画素領域内において、前記画素ピッチよりも短い距離だけ互いに離れた4つの位置のそれぞれに順に配置し、
第2の色であるBに対応する第2受光部の受光領域を、前記4つの位置のそれぞれに順に配置し、
第3の色であるGに対応する第3受光部の受光領域を、前記4つの位置のそれぞれに順に配置し、
第4の色であるGに対応する第4受光部の受光領域を、前記4つの位置のそれぞれに順に配置し、
前記シフタは、
前記第2受光部から出力される画素データが前記メモリに転送された場合には、前記メモリに格納された前記第2受光部の画素データの画素位置を、前記第1受光部の画素データの画素位置にシフトし、
前記第3受光部から出力される画素データが前記メモリに転送された場合には、前記メモリに格納された前記第3受光部の画素データの画素位置を、前記第1受光部の画素データの画素位置にシフトし、
前記第4受光部から出力される画素データが前記メモリに転送された場合には、前記メモリに格納された前記第4受光部の画素データの画素位置を、前記第1受光部の画素データの画素位置にシフトし、
前記合成部は、
前記画素領域内において前記第1受光部の受光領域が前記4つの位置のそれぞれに順に配置されたときに前記第1受光部から出力される画素データに基づいて、前記画素領域における前記第1の色の画素値を、前記合成画像に含まれる画素値として算出し、
前記画素領域内において前記第2受光部の受光領域が前記4つの位置のそれぞれに順に配置されたときに前記第2受光部から出力されて、かつシフトされた画素データに基づいて、前記画素領域における前記第2の色の画素値を、前記合成画像に含まれる画素値として算出し、
前記画素領域内において前記第3受光部の受光領域が前記4つの位置のそれぞれに順に配置されたときに前記第3受光部から出力されて、かつシフトされた画素データに基づいて、前記画素領域における前記第3の色の画素値を算出し、
前記画素領域内において前記第4受光部の受光領域が前記4つの位置のそれぞれに順に配置されたときに前記第4受光部から出力されて、かつシフトされた画素データに基づいて、前記画素領域における前記第4の色の画素値を算出し、
前記第3の色の画素値と前記第4の色の画素値とに基づいて、前記合成画像に含まれるGの画素値を算出する
撮像装置。
an image pickup device having a plurality of light receiving portions that are spaced apart from each other at every pixel pitch along one surface and receive light that has passed through a light transmitting portion of any one of RGB colors included in the color filter; ,
a driving unit that changes a relative position within the imaging plane with respect to an optical image projected on the imaging plane of the imaging device;
a synthesizing unit configured to generate a synthesized image by synthesizing pixel data output from each of the plurality of light receiving units of the imaging element each time the imaging element is exposed;
a memory for storing pixel data output from each of the plurality of light receiving units of the imaging device;
a shifter that shifts the pixel position of the pixel data stored in the memory;
The light receiving area of the first light receiving unit corresponding to R, which is the first color, is located within one pixel area of the optical image,
The color filters are each composed of a plurality of sets each including an R light-transmitting portion, two G light-transmitting portions, and a B light-transmitting portion,
By changing the relative position, the drive unit
The light-receiving regions of the first light-receiving unit are sequentially arranged at four positions separated from each other by a distance shorter than the pixel pitch in the one pixel region,
The light-receiving regions of the second light-receiving unit corresponding to B, which is the second color, are arranged in order at each of the four positions,
The light-receiving regions of the third light-receiving unit corresponding to G, which is the third color, are arranged in order at each of the four positions,
arranging the light receiving areas of the fourth light receiving unit corresponding to G, which is the fourth color, at each of the four positions in order;
The shifter is
When the pixel data output from the second light receiving section is transferred to the memory, the pixel position of the pixel data of the second light receiving section stored in the memory is replaced with the pixel position of the pixel data of the first light receiving section. Shift to pixel position,
When the pixel data output from the third light receiving section is transferred to the memory, the pixel position of the pixel data of the third light receiving section stored in the memory is replaced with the pixel position of the pixel data of the first light receiving section. Shift to pixel position,
When the pixel data output from the fourth light receiving section is transferred to the memory, the pixel position of the pixel data of the fourth light receiving section stored in the memory is replaced with the pixel position of the pixel data of the first light receiving section. Shift to pixel position,
The synthesizing unit
Based on the pixel data output from the first light receiving unit when the light receiving regions of the first light receiving unit are arranged in order at each of the four positions in the pixel region, the first light receiving unit in the pixel region calculating the pixel value of the color as the pixel value included in the composite image;
the pixel region based on pixel data that is output from the second light receiving portion and shifted when the light receiving regions of the second light receiving portion are arranged in order at each of the four positions in the pixel region; calculating the pixel value of the second color in as the pixel value included in the composite image;
When the light receiving areas of the third light receiving section are arranged in order in the four positions in the pixel area, the pixel is output from the third light receiving section and shifted based on the pixel data. calculating pixel values of the third color in the region;
When the light receiving areas of the fourth light receiving section are arranged in order in the four positions in the pixel area, the pixel is output from the fourth light receiving section and shifted based on the pixel data. calculating pixel values of the fourth color in the region;
calculating a pixel value of G included in the composite image based on the pixel value of the third color and the pixel value of the fourth color ;
Imaging device.
それぞれ一面に沿って画素ピッチおきに互いに離間して配置され、カラーフィルタに含まれるRGBのうちの何れかの色の透光部を透過した光を受光する複数の受光部を有する撮像素子と、
前記撮像素子の撮像面に投影される光学像に対して前記撮像面内における相対位置を変化させる駆動部と、
前記撮像素子が露光されるごとに前記撮像素子の前記複数の受光部のそれぞれから出力される画素データを合成することによって、合成画像を生成する合成部とを備え、
前記カラーフィルタに含まれる複数の前記透光部の配列は、デルタ配列であり、
前記駆動部は、
前記RGBのうちの何れかの色である第1の色に対応する第1受光部の受光領域を、前記光学像の1つの画素領域内において、前記画素ピッチよりも短い距離だけ互いに離れた複数の位置のそれぞれに順に配置し、さらに、前記第1受光部の受光領域を、前記1つの画素領域外の複数の位置のそれぞれに順に配置し、
前記画素領域内の配置を6回、これを1組として、前記画素領域の配置が3回、合計18回の配置を行い、
前記合成部は、
前記画素領域内および前記画素領域外において前記第1受光部の受光領域が前記複数の位置のそれぞれに順に配置されたときに前記第1受光部から出力される画素データに基づいて前記合成画像を生成する、
撮像装置。
an image pickup device having a plurality of light receiving portions that are spaced apart from each other at every pixel pitch along one surface and receive light that has passed through a light transmitting portion of any one of RGB colors included in the color filter;
a driving unit that changes a relative position within the imaging plane with respect to an optical image projected on the imaging plane of the imaging device;
a synthesizing unit that generates a synthesized image by synthesizing pixel data output from each of the plurality of light receiving units of the imaging element each time the imaging element is exposed;
The arrangement of the plurality of light-transmitting portions included in the color filter is a delta arrangement,
The drive unit
a plurality of light receiving regions of the first light receiving unit corresponding to a first color, which is one of the RGB colors, separated from each other by a distance shorter than the pixel pitch in one pixel region of the optical image; and sequentially arranging the light-receiving regions of the first light-receiving unit at each of a plurality of positions outside the one pixel region,
Placement within the pixel region is performed 6 times as one set, and placement outside the pixel region is performed 3 times, for a total of 18 times ,
The synthesizing unit
The composite image is generated based on pixel data output from the first light receiving unit when the light receiving regions of the first light receiving unit are sequentially arranged at each of the plurality of positions within the pixel region and outside the pixel region. generate,
Imaging device.
それぞれ一面に沿って画素ピッチおきに互いに離間して配置され、カラーフィルタに含まれるRGBのうちの何れかの色の透光部を透過した光を受光する複数の受光部を有する撮像素子を用いる撮像方法であって、
前記撮像素子の撮像面に投影される光学像に対して前記撮像面内における相対位置を変化させ、
前記撮像素子が露光されるごとに前記撮像素子の前記複数の受光部のそれぞれから出力される画素データを合成することによって、合成画像を生成し、
前記RGBのうちの何れかの色である第1の色に対応する第1受光部の受光領域は、前記光学像の1つの画素領域内に位置し、
前記撮像面の相対位置の変化では、
前記第1受光部の受光領域を、前記1つの画素領域内において、前記画素ピッチよりも短い距離だけ互いに離れた複数の位置のそれぞれに順に配置し、
前記合成画像の生成では、
前記画素領域内において前記第1受光部の受光領域が前記複数の位置のそれぞれに順に配置されたときに前記第1受光部から出力される画素データに基づいて前記合成画像を生成し、
前記光学像における前記画素領域は、
前記撮像面における1つの受光部の受光領域の全体と、前記受光領域の周囲の非受光領域とに重なり、かつ、他の受光部の受光領域に重ならない大きさを有する、
撮像方法。
An image pickup device is used which has a plurality of light receiving portions which are spaced apart from each other at every pixel pitch along one surface and receive light transmitted through the light transmitting portions of any one of RGB colors included in the color filter. An imaging method,
changing the relative position in the imaging plane with respect to the optical image projected on the imaging plane of the imaging element;
generating a composite image by synthesizing pixel data output from each of the plurality of light receiving units of the imaging device each time the imaging device is exposed;
a light-receiving region of the first light-receiving unit corresponding to a first color that is one of the RGB colors is located within one pixel region of the optical image;
In the change of the relative position of the imaging plane,
The light receiving regions of the first light receiving unit are arranged in sequence at a plurality of positions separated from each other by a distance shorter than the pixel pitch in the one pixel region,
In generating the composite image,
generating the composite image based on pixel data output from the first light receiving unit when the light receiving areas of the first light receiving unit are arranged in order at each of the plurality of positions in the pixel area;
The pixel area in the optical image is
It has a size that overlaps the entire light receiving area of one light receiving unit on the imaging surface and a non-light receiving area around the light receiving area, and does not overlap the light receiving area of another light receiving unit.
Imaging method.
それぞれ一面に沿って画素ピッチおきに互いに離間して配置され、カラーフィルタに含まれるRGBのうちの何れかの色の透光部を透過した光を受光する複数の受光部を有する撮像素子を用いて撮像を行うためのプログラムであって、
前記撮像素子の撮像面に投影される光学像に対して前記撮像面内における相対位置を変化させ、
前記撮像素子が露光されるごとに前記撮像素子の前記複数の受光部のそれぞれから出力される画素データを合成することによって、合成画像を生成することを、
コンピュータに実行させ、
前記RGBのうちの何れかの色である第1の色に対応する第1受光部の受光領域は、前記光学像の1つの画素領域内に位置し、
前記撮像面の相対位置の変化では、
前記第1受光部の受光領域を、前記1つの画素領域内において、前記画素ピッチよりも短い距離だけ互いに離れた複数の位置のそれぞれに順に配置し、
前記合成画像の生成では、
前記画素領域内において前記第1受光部の受光領域が前記複数の位置のそれぞれに順に配置されたときに前記第1受光部から出力される画素データに基づいて前記合成画像を生成し、
前記光学像における前記画素領域は、
前記撮像面における1つの受光部の受光領域の全体と、前記受光領域の周囲の非受光領域とに重なり、かつ、他の受光部の受光領域に重ならない大きさを有する、
プログラム。
An imaging device is used which has a plurality of light-receiving portions which are spaced apart from each other at every pixel pitch along one surface and which receive light transmitted through the light-transmitting portions of any one of RGB colors included in the color filter. A program for imaging with
changing the relative position in the imaging plane with respect to the optical image projected on the imaging plane of the imaging element;
Generating a composite image by synthesizing pixel data output from each of the plurality of light receiving units of the imaging device each time the imaging device is exposed,
let the computer run
a light-receiving region of the first light-receiving unit corresponding to a first color that is one of the RGB colors is located within one pixel region of the optical image;
In the change of the relative position of the imaging plane,
The light receiving regions of the first light receiving unit are arranged in sequence at a plurality of positions separated from each other by a distance shorter than the pixel pitch in the one pixel region,
In generating the composite image,
generating the composite image based on pixel data output from the first light receiving unit when the light receiving areas of the first light receiving unit are arranged in order at each of the plurality of positions in the pixel area;
The pixel area in the optical image is
It has a size that overlaps the entire light receiving area of one light receiving unit on the imaging surface and a non-light receiving area around the light receiving area, and does not overlap the light receiving area of another light receiving unit.
program.
JP2018060959A 2018-03-27 2018-03-27 Imaging device, imaging method and program Active JP7113289B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018060959A JP7113289B2 (en) 2018-03-27 2018-03-27 Imaging device, imaging method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018060959A JP7113289B2 (en) 2018-03-27 2018-03-27 Imaging device, imaging method and program

Publications (3)

Publication Number Publication Date
JP2019176280A JP2019176280A (en) 2019-10-10
JP2019176280A5 JP2019176280A5 (en) 2021-05-20
JP7113289B2 true JP7113289B2 (en) 2022-08-05

Family

ID=68167335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018060959A Active JP7113289B2 (en) 2018-03-27 2018-03-27 Imaging device, imaging method and program

Country Status (1)

Country Link
JP (1) JP7113289B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001051238A (en) 1999-08-09 2001-02-23 Olympus Optical Co Ltd Optical device and image pickup unit
JP2008306525A (en) 2007-06-08 2008-12-18 Nikon Corp Image pickup apparatus, image processing apparatus, image processing method, and program
JP2011035737A (en) 2009-08-03 2011-02-17 Olympus Corp Imaging apparatus, electronic instrument, image processing device, and image processing method
JP2012181406A (en) 2011-03-02 2012-09-20 Canon Inc Imaging device
JP2015226256A (en) 2014-05-29 2015-12-14 オリンパス株式会社 Imaging apparatus and image processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09219867A (en) * 1995-11-10 1997-08-19 Techno Media:Kk Still color picture image pickup device and its method
JP3762049B2 (en) * 1997-06-27 2006-03-29 キヤノン株式会社 IMAGING DEVICE, IMAGING METHOD, AND RECORDING MEDIUM CONTAINING THE IMAGING METHOD

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001051238A (en) 1999-08-09 2001-02-23 Olympus Optical Co Ltd Optical device and image pickup unit
JP2008306525A (en) 2007-06-08 2008-12-18 Nikon Corp Image pickup apparatus, image processing apparatus, image processing method, and program
JP2011035737A (en) 2009-08-03 2011-02-17 Olympus Corp Imaging apparatus, electronic instrument, image processing device, and image processing method
JP2012181406A (en) 2011-03-02 2012-09-20 Canon Inc Imaging device
JP2015226256A (en) 2014-05-29 2015-12-14 オリンパス株式会社 Imaging apparatus and image processing method

Also Published As

Publication number Publication date
JP2019176280A (en) 2019-10-10

Similar Documents

Publication Publication Date Title
US6570613B1 (en) Resolution-enhancement method for digital imaging
JP5563283B2 (en) Image processing device
JP5486737B2 (en) Imaging apparatus and signal amount correction method
JP2011077829A (en) Imaging device and electronic camera
JP5597777B2 (en) Color imaging device and imaging apparatus
JPH10336686A (en) Image pickup device
JP2011035737A (en) Imaging apparatus, electronic instrument, image processing device, and image processing method
WO2012124181A1 (en) Imaging device and imaging program
CN104937923B (en) Solid-state imaging element, its driving method and imaging device
JP5033711B2 (en) Imaging device and driving method of imaging device
JP5524406B2 (en) Imaging apparatus and imaging program
US8970748B2 (en) Imaging device, storage medium storing a control program for imaging device, and control method for imaging device
JP7113289B2 (en) Imaging device, imaging method and program
JP5607266B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM
JP2004112738A (en) Resolution conversion method and pixel data processing circuit for single-ccd color-image sensor
JP4624604B2 (en) Image acquisition device
US20070030522A1 (en) Image processing apparatus and image processing method
JP5411390B2 (en) Color image sensor
JP2010171548A (en) Image processing apparatus
JP2010074826A (en) Imaging apparatus and image processing program
JP2009055273A (en) Solid-state image pickup element
JP4086618B2 (en) Signal processing apparatus and method
JP4059837B2 (en) Still image color camera device
JP2005260383A (en) Image input device and image input method for use therein
JP5624227B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220520

R151 Written notification of patent or utility model registration

Ref document number: 7113289

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151