JP2012142676A - Imaging device and image generation method - Google Patents
Imaging device and image generation method Download PDFInfo
- Publication number
- JP2012142676A JP2012142676A JP2010292176A JP2010292176A JP2012142676A JP 2012142676 A JP2012142676 A JP 2012142676A JP 2010292176 A JP2010292176 A JP 2010292176A JP 2010292176 A JP2010292176 A JP 2010292176A JP 2012142676 A JP2012142676 A JP 2012142676A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- value
- image
- filter
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 176
- 238000003384 imaging method Methods 0.000 title claims abstract description 77
- 238000004364 calculation method Methods 0.000 claims abstract description 30
- 239000003086 colorant Substances 0.000 claims abstract description 10
- 238000002834 transmittance Methods 0.000 claims description 45
- 238000011156 evaluation Methods 0.000 claims description 35
- 230000007935 neutral effect Effects 0.000 claims description 2
- 230000005540 biological transmission Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 71
- 230000006870 function Effects 0.000 description 42
- 230000008569 process Effects 0.000 description 28
- 238000005070 sampling Methods 0.000 description 24
- 230000003287 optical effect Effects 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 239000000872 buffer Substances 0.000 description 8
- 230000008859 change Effects 0.000 description 8
- 238000009826 distribution Methods 0.000 description 6
- 230000000052 comparative effect Effects 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000007476 Maximum Likelihood Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000017525 heat dissipation Effects 0.000 description 1
- 238000012615 high-resolution technique Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000035699 permeability Effects 0.000 description 1
- 239000012466 permeate Substances 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Color Television Image Signal Generators (AREA)
Abstract
Description
本発明は、撮像装置及び画像生成方法等に関する。 The present invention relates to an imaging apparatus, an image generation method, and the like.
撮像素子の各受光素子には、それぞれ1色のカラーフィルタが対応している。例えば、ベイヤ配列の撮像素子では、赤色フィルタ、緑色フィルタ、青色フィルタのいずれかのカラーフィルタが1つの受光素子に対応している。 Each light receiving element of the imaging element corresponds to a color filter of one color. For example, in a Bayer array image sensor, any one of a red filter, a green filter, and a blue filter corresponds to one light receiving element.
本発明者は、撮像により得られた低解像画像から高解像画像を生成する手法を開発している。この手法は、例えば撮像画像のデータ量を削減したり、そのデータを表示する際の高解像化を行うために用いられる。 The inventor has developed a technique for generating a high-resolution image from a low-resolution image obtained by imaging. This technique is used, for example, to reduce the data amount of a captured image or to increase the resolution when displaying the data.
従来は、上述のように1つの受光素子に1色のカラーフィルタが対応した撮像素子により得られた画像を高解像化する。例えば特許文献1、2には、画素シフトを行いながら低解像画像を撮像し、撮像された低解像画像から高解像画像を生成する手法が開示されている。
Conventionally, as described above, an image obtained by an imaging device in which one color filter corresponds to one light receiving device is made to have high resolution. For example,
本発明の幾つかの態様によれば、低解像動画から高解像画像を取得できる撮像装置及び画像生成方法等を提供できる。 According to some aspects of the present invention, it is possible to provide an imaging device, an image generation method, and the like that can acquire a high-resolution image from a low-resolution moving image.
本発明の一態様は、複数の受光素子とフィルタ部を有する撮像素子と、前記複数の受光素子の受光値を読み出して低解像フレーム画像を取得する読み出し制御部と、前記低解像フレーム画像に基づいて、前記低解像フレーム画像の画素ピッチよりも小さい画素ピッチの推定画素値を推定する推定演算部と、前記推定画素値に基づいて、前記低解像フレーム画像よりも高解像度の高解像フレーム画像を出力する画像出力部と、を含み、前記フィルタ部には、1つの受光素子に対応するフィルタとして、異なる色の複数のフィルタが配列される撮像装置に関係する。 One embodiment of the present invention includes an imaging device having a plurality of light receiving elements and a filter unit, a read control unit that reads light reception values of the plurality of light receiving elements to obtain a low resolution frame image, and the low resolution frame image An estimation calculation unit that estimates an estimated pixel value having a pixel pitch smaller than the pixel pitch of the low-resolution frame image, and a higher resolution than the low-resolution frame image based on the estimated pixel value. An image output unit that outputs a resolution frame image, and the filter unit relates to an imaging device in which a plurality of filters of different colors are arranged as a filter corresponding to one light receiving element.
本発明の一態様によれば、異なる色の複数のフィルタを透過した光が受光素子により受光される。そして、その受光値による低解像フレーム画像が取得され、その低解像フレーム画像に基づいて推定画素値が推定され、その推定画素値に基づいて高解像フレーム画像が出力される。これにより、低解像画像から高解像画像を推定することと等が可能になる。また、複数のフィルタを透過した光を1つの受光素子で受光するため、複数受光値の加算値に相当する受光値を取得可能になる。 According to one embodiment of the present invention, light transmitted through a plurality of filters of different colors is received by a light receiving element. Then, a low resolution frame image based on the received light value is acquired, an estimated pixel value is estimated based on the low resolution frame image, and a high resolution frame image is output based on the estimated pixel value. This makes it possible to estimate a high resolution image from a low resolution image. In addition, since the light that has passed through the plurality of filters is received by one light receiving element, it is possible to acquire a light reception value corresponding to the added value of the plurality of light reception values.
また、本発明の一態様では、前記複数のフィルタの各フィルタは、重み付けされた透過率を有し、前記推定演算部は、前記重み付けされた透過率により得られた受光値に基づいて前記推定を行ってもよい。 In the aspect of the invention, each of the plurality of filters has a weighted transmittance, and the estimation calculation unit is configured to perform the estimation based on a light reception value obtained by the weighted transmittance. May be performed.
また、本発明の一態様では、前記フィルタ部は、前記1つの受光素子に対応するフィルタとして、ベイヤ配列のフィルタを有し、前記ベイヤ配列のフィルタは、第1緑色フィルタと、赤色フィルタと、青色フィルタと、第2緑色フィルタを有し、前記赤フィルタと前記青色フィルタの透過率は、前記第1緑色フィルタの透過率に対して1/r(rは1以上の実数)であり、前記第2緑色フィルタの透過率は、前記第1緑色フィルタの透過率に対して1/r2であってもよい。 In the aspect of the invention, the filter unit includes a Bayer array filter as a filter corresponding to the one light receiving element, and the Bayer array filter includes a first green filter, a red filter, A blue filter and a second green filter, wherein the transmittance of the red filter and the blue filter is 1 / r (r is a real number of 1 or more) relative to the transmittance of the first green filter; The transmittance of the second green filter may be 1 / r 2 with respect to the transmittance of the first green filter.
また、本発明の一態様では、前記フィルタ部は、カラーフィルタと、前記重み付けされた透過率を有するNDフィルタと、を有してもよい。 In the aspect of the invention, the filter unit may include a color filter and an ND filter having the weighted transmittance.
このようにすれば、透過率が重み付けされた複数のフィルタを透過した光を、1つの受光素子で受光できる。これにより、透過率の重み付けがない場合に比べて、より高解像な推定画素値を求めることが可能になる。 If it does in this way, the light which permeate | transmitted the several filter with which the transmittance | permeability was weighted can be received with one light receiving element. Accordingly, it is possible to obtain a higher resolution estimated pixel value as compared with the case where there is no weighting of the transmittance.
また、本発明の一態様では、前記読み出し制御部は、画素を重畳しながら順次画素シフトさせて被写体像をサンプリングし、前記画素シフトしながら前記撮像素子により各撮像動作を行い、前記各撮像動作により得られた前記画素の受光値を低解像フレーム画像として取得してもよい。 In one embodiment of the present invention, the readout control unit samples a subject image by sequentially shifting pixels while superimposing pixels, performs each imaging operation with the imaging element while shifting the pixels, and performs each imaging operation. The light reception value of the pixel obtained by the above may be acquired as a low resolution frame image.
また、本発明の一態様では、前記読み出し制御部は、前記画素を、第1のポジションと、前記第1のポジションの次の第2のポジションに順次設定して前記画素シフトを行い、前記推定演算部は、前記第1のポジションの画素と前記第2のポジションの画素が重畳する場合に、前記第1のポジションの画素の受光値と前記第2のポジションの画素の受光値の差分値を求め、前記差分値に基づいて前記推定画素値を推定してもよい。 In the aspect of the invention, the readout control unit may sequentially set the pixels to a first position and a second position next to the first position, perform the pixel shift, and perform the estimation. When the pixel at the first position and the pixel at the second position overlap, the arithmetic unit calculates a difference value between the light reception value of the pixel at the first position and the light reception value of the pixel at the second position. The estimated pixel value may be estimated based on the difference value.
本発明の一態様によれば、画素を重畳しながら順次画素シフトされ、画素シフトされながら撮像素子により各撮像動作が行われて受光値が取得され、低解像フレーム画像が取得される。そして、画素が順次画素シフトされることで得られた複数の受光値に基づいて推定画素値が推定される。このとき、重畳する第1、第2のポジションの画素の受光値の差分値に基づいて推定画素値が推定される。これにより、簡素な処理で低解像動画から高解像画像を取得すること等が可能になる。 According to one embodiment of the present invention, pixels are sequentially shifted while superimposing pixels, and each imaging operation is performed by the imaging element while the pixels are shifted, whereby a light reception value is acquired and a low-resolution frame image is acquired. Then, an estimated pixel value is estimated based on a plurality of received light values obtained by sequentially shifting the pixels. At this time, the estimated pixel value is estimated based on the difference value of the light reception values of the pixels at the first and second positions to be superimposed. Thereby, it becomes possible to acquire a high resolution image from a low resolution moving image by a simple process.
また、本発明の一態様では、前記推定演算部は、前記第1のポジションの画素から重畳領域を除いた第1の受光領域の受光値である第1の中間画素値と、前記第2のポジションの画素から前記重畳領域を除いた第2の受光領域の受光値である第2の中間画素値との関係式を、前記差分値を用いて表し、前記関係式を用いて前記第1、第2の中間画素値を推定し、推定した前記第1の中間画素値を用いて前記推定画素値を求めてもよい。 In the aspect of the invention, the estimation calculation unit may include a first intermediate pixel value that is a light reception value of a first light reception region obtained by removing a superposition region from the pixel at the first position, and the second A relational expression with a second intermediate pixel value that is a light receiving value of a second light receiving area obtained by excluding the superposed area from the pixel of the position is expressed using the difference value, and the first, A second intermediate pixel value may be estimated, and the estimated pixel value may be obtained using the estimated first intermediate pixel value.
このようにすれば、画素が重畳しながら順次画素シフトさせつつ取得された受光値から中間画素値を推定し、推定した中間画素値から最終的な推定画素値を求めることができる。これにより、高解像フレーム画像の画素値推定を簡素化できる。 In this way, it is possible to estimate the intermediate pixel value from the received light value acquired while sequentially shifting the pixels while superimposing the pixels, and obtain the final estimated pixel value from the estimated intermediate pixel value. Thereby, pixel value estimation of a high resolution frame image can be simplified.
また、本発明の一態様では、推定演算部は、前記第1、第2の中間画素値を含む連続する中間画素値を中間画素値パターンとする場合に、前記中間画素値パターンの中間画素値間の関係式を、前記画素の受光値を用いて表し、中間画素値間の関係式で表された前記中間画素値パターンと前記画素の受光値とを比較して類似性を評価し、前記類似性の評価結果に基づいて、前記類似性が最も高くなるように、前記中間画素値パターンに含まれる各中間画素値を決定してもよい。 In the aspect of the invention, the estimation calculation unit may use the intermediate pixel value of the intermediate pixel value pattern when the continuous intermediate pixel value including the first and second intermediate pixel values is an intermediate pixel value pattern. The relational expression between the pixels is expressed using the light reception value of the pixel, the intermediate pixel value pattern represented by the relational expression between the intermediate pixel values is compared with the light reception value of the pixel, and the similarity is evaluated, Based on the similarity evaluation result, each intermediate pixel value included in the intermediate pixel value pattern may be determined so that the similarity is the highest.
このようにすれば、画素が重畳されながら画素シフトされることで取得された複数の受光値に基づいて、中間画素値を推定できる。 In this way, the intermediate pixel value can be estimated based on a plurality of received light values acquired by pixel shifting while pixels are superimposed.
また、本発明の一態様では、前記推定演算部は、中間画素値間の関係式で表された前記中間画素値パターンと前記画素の受光値との誤差を表す評価関数を求め、前記評価関数の値が最小となるように、前記中間画素値パターンに含まれる各中間画素値を決定してもよい。 In the aspect of the invention, the estimation calculation unit obtains an evaluation function representing an error between the intermediate pixel value pattern represented by a relational expression between intermediate pixel values and a light reception value of the pixel, and the evaluation function Each of the intermediate pixel values included in the intermediate pixel value pattern may be determined so that the value of.
このようにすれば、評価関数の値が最小となるように中間画素値の値を決定することで、中間画素値パターンと受光値の類似性が最も高くなるように中間画素値の値を決定できる。 In this way, by determining the intermediate pixel value so that the value of the evaluation function is minimized, the intermediate pixel value is determined so that the similarity between the intermediate pixel value pattern and the received light value is the highest. it can.
また、本発明の他の態様は、撮像素子が複数の受光素子とフィルタ部を有する撮像素子における画像生成方法であって、前記フィルタ部に、1つの受光素子に対応するフィルタとして、異なる色の複数のフィルタが配列される場合に、前記複数の受光素子の受光値を読み出して低解像フレーム画像を取得し、前記低解像フレーム画像に基づいて、前記低解像フレーム画像の画素ピッチよりも小さい画素ピッチの推定画素値を推定し、前記推定画素値に基づいて、前記低解像フレーム画像よりも高解像度の高解像フレーム画像を出力する画像生成方法に関係する。 According to another aspect of the present invention, there is provided an image generation method in an image sensor in which the image sensor includes a plurality of light receiving elements and a filter unit, and the filter unit has different colors as filters corresponding to one light receiving element. When a plurality of filters are arranged, the light reception values of the plurality of light receiving elements are read to obtain a low resolution frame image, and based on the low resolution frame image, from the pixel pitch of the low resolution frame image The present invention relates to an image generation method that estimates an estimated pixel value with a smaller pixel pitch and outputs a high-resolution frame image having a higher resolution than the low-resolution frame image based on the estimated pixel value.
また、本発明のさらに他の態様では、画素を重畳しながら順次画素シフトさせて被写体像をサンプリングし、前記画素シフトしながら前記撮像素子により各撮像動作を行い、前記各撮像動作により得られた前記画素の受光値を低解像フレーム画像として取得し、前記画素を、第1のポジションと、前記第1のポジションの次の第2のポジションに順次設定して前記画素シフトを行い、前記第1のポジションの画素と前記第2のポジションの画素が重畳する場合に、前記第1のポジションの画素の受光値と前記第2のポジションの画素の受光値の差分値を求め、前記差分値に基づいて前記推定画素値を推定してもよい。 According to still another aspect of the present invention, the subject image is sampled by sequentially shifting the pixels while superimposing the pixels, and each imaging operation is performed by the imaging element while the pixels are shifted, and obtained by each imaging operation. The light reception value of the pixel is acquired as a low-resolution frame image, the pixel is sequentially set to a first position and a second position next to the first position, and the pixel shift is performed. When the pixel at the first position and the pixel at the second position overlap, a difference value between the light reception value of the pixel at the first position and the light reception value of the pixel at the second position is obtained, and the difference value is The estimated pixel value may be estimated based on this.
以下、本発明の好適な実施の形態について詳細に説明する。なお以下に説明する本実施形態は特許請求の範囲に記載された本発明の内容を不当に限定するものではなく、本実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。 Hereinafter, preferred embodiments of the present invention will be described in detail. The present embodiment described below does not unduly limit the contents of the present invention described in the claims, and all the configurations described in the present embodiment are indispensable as means for solving the present invention. Not necessarily.
1.比較例
まず、本実施形態の比較例について説明する。デジタルカメラやビデオカメラの製品には、静止画撮影を主とするデジタルカメラに動画撮影機能をもたせたものや、動画撮影を主とするビデオカメラに静止画撮影機能をもたせたものがある。これらのカメラでは、静止画撮影モードと動画撮影モードを切り換えて使用するものが多い。中には、動画撮影並の高速フレームレートにより高精細静止画を撮影可能とするものがあり、短時間の高速連写が可能である。このような機器を使えば、静止画と動画の撮影を一つの機器でまかなえるという利便さがある。
1. Comparative Example First, a comparative example of this embodiment will be described. Among digital camera and video camera products, there are those in which a digital camera mainly for still image shooting has a moving image shooting function, and in which a video camera mainly for moving image shooting has a still image shooting function. Many of these cameras are used by switching between a still image shooting mode and a moving image shooting mode. Some of them enable high-definition still images to be shot at a high-speed frame rate comparable to that of moving image shooting, and high-speed continuous shooting in a short time is possible. If such a device is used, there is the convenience that a still image and a moving image can be shot with a single device.
しかしながら、これらの手法では、多くの人が求めるシャッターチャンスを逃さず高品位な静止画を得ることが難しいという課題がある。例えば、動画撮影中に高品位静止画を撮影するモードに瞬時に切り替える方法では、動画が途切れてしまったり、ユーザが気づいたときには既に決定的瞬間を逃してしまっているという課題がある。 However, with these methods, there is a problem that it is difficult to obtain a high-quality still image without missing the shutter chance that many people demand. For example, in a method of instantaneously switching to a mode for shooting a high-quality still image during moving image shooting, there is a problem that the moving image is interrupted or a decisive moment has already been missed when the user notices.
このシャッターチャンスを逃さないという課題を解決するには、動画撮影により全てのシーンをもれなく撮影しておいて、その中から自由に決定的瞬間を高品位な静止画として得る手法が考えられる。この手法を実現するためには、高精細画像を高速フレームレートにより撮影可能とすることが必要である。 In order to solve the problem of not missing the photo opportunity, it is conceivable to capture all scenes by moving image shooting and obtain a decisive moment as a high-quality still image freely. In order to realize this method, it is necessary to be able to capture a high-definition image at a high frame rate.
しかしながら、この手法の実現は容易ではない。例えば、1200万画素の画像を60fps(fps:フレーム/秒)で連続して撮影するためには、超高速撮像可能な撮像素子、撮像データを超高速処理する処理回路、超高速データ圧縮処理機能、莫大なデータを記録する記録手段が必要になる。このためには、複数撮像素子の使用、並列処理、大規模メモリー、高能力放熱機構などが必要になるが、小型化や低コストが求められる民生用機器においては非現実的である。動画撮影のハイビジョン(200万画素)程度の解像度の高品位でない静止画であれば実現可能であるが、ハイビジョン程度の解像度では静止画としては不十分である。 However, this method is not easy to realize. For example, in order to continuously capture images of 12 million pixels at 60 fps (fps: frame / second), an image sensor capable of performing ultra-high-speed imaging, a processing circuit for processing ultra-high-speed imaging data, and an ultra-high-speed data compression processing function Therefore, a recording means for recording enormous data is required. For this purpose, use of a plurality of image sensors, parallel processing, a large-scale memory, a high-capacity heat dissipation mechanism, and the like are required. However, this is impractical for consumer devices that require miniaturization and low cost. Although it is possible to realize a still image that is not high-definition with a resolution of about high-definition (2 million pixels) for moving image shooting, a resolution of about high-definition is insufficient as a still image.
また、高フレームレートの動画撮影を行う手法として、多画素で高精細画像が撮影できる高画素イメージセンサを用い、画素の間引き読み出しあるいは隣接画素の加算読出しによって低解像画像化し、1回の読み出しデータを低減することにより実現する手法が考えられる。しかしながら、この手法では、高精細画像を高フレームレートにより撮影することができない。 In addition, as a method of shooting a high frame rate moving image, a high-pixel image sensor capable of shooting a high-definition image with multiple pixels is used, and a low-resolution image is obtained by thinning-out readout of pixels or addition readout of adjacent pixels. A method realized by reducing data is conceivable. However, with this method, a high-definition image cannot be taken at a high frame rate.
この課題を解決するためには、高フレームレートで撮影された低解像画像から高解像画像を得る必要がある。低解像画像から高解像画像を得る手法として、例えば、画素シフトにより撮影した低解像画像に対して所謂超解像処理を行い、高解像画像を生成する手法が考えられる。 In order to solve this problem, it is necessary to obtain a high resolution image from a low resolution image captured at a high frame rate. As a technique for obtaining a high-resolution image from a low-resolution image, for example, a technique for generating a high-resolution image by performing so-called super-resolution processing on a low-resolution image captured by pixel shift can be considered.
例えば、その手法として、加算読み出しを用いた手法が考えられる。すなわち、低解像画像を順次位置ずらししながら読み出した後、それら複数の位置ずれ画像に基づいて高精細化画像を一旦仮定する。そして、仮定した画像を劣化させて低解像画像を生成し、元の低解像画像と比較し、その差異が最小になるように高精細画像を変形させ、高精細画像を推定する。この超解像処理として、ML(Maximum-Likelihood)法、MAP(Maximum A Posterior)法、POCS(Projection Onto Convex Set)法、IBP(Iterative Back Projection)法などが知られている。 For example, as the technique, a technique using addition reading can be considered. That is, after the low-resolution image is read out while sequentially shifting the position, a high-definition image is temporarily assumed based on the plurality of position-shifted images. Then, the assumed image is degraded to generate a low resolution image, which is compared with the original low resolution image, the high definition image is deformed so that the difference is minimized, and the high definition image is estimated. As this super-resolution processing, an ML (Maximum-Likelihood) method, a MAP (Maximum A Postterior) method, a POCS (Projection Onto Convex Set) method, an IBP (Iterative Back Projection) method, and the like are known.
また、超解像処理を用いた手法として、上述の特許文献1に開示された手法がある。この手法では、動画撮影時に画素シフトさせた低解像画像を時系列的に順次撮影し、それらの複数低解像画像を合成することにより高解像画像を仮定する。そして、この仮定した高解像画像に対して上記の超解像処理を施し、尤度の高い(尤もらしい)高解像画像を推定する。
Further, as a technique using super-resolution processing, there is a technique disclosed in
しかしながら、これらの手法では、2次元フィルタを多用する繰り返し演算により推定精度を上げていく一般的な超解像処理を用いている。そのため、非常に処理の規模が大きくなったり、処理時間が増大したりしてしまい、処理能力やコストの制限がある機器への適用は困難であるという課題がある。例えば、デジタルカメラのような小型携帯撮像装置に適用すると、処理回路の規模が大きくなり、消費電力の増大、大量の熱の発生、コストの大幅アップなどの課題が生じてしまう。 However, in these methods, a general super-resolution process is used in which the estimation accuracy is increased by an iterative operation that frequently uses a two-dimensional filter. Therefore, the scale of processing becomes very large and the processing time increases, and there is a problem that it is difficult to apply to devices with processing capacity and cost limitations. For example, when applied to a small portable imaging device such as a digital camera, the scale of the processing circuit becomes large, and problems such as an increase in power consumption, generation of a large amount of heat, and a significant increase in cost occur.
また、上述の特許文献2には、画素シフトさせた複数枚の低解像画像を使って高解像画像を生成する手法が開示されている。この手法では、求めたい高解像画像を構成する仮の画素を副画素とおき、その副画素の平均値が、撮影された低解像画像の画素値と一致するように副画素の画素値を推定する。この画素値の推定では、複数の副画素の初期値を設定し、算出したい副画素を除く副画素の画素値を低解像画像の画素値から差し引いて画素値を求め、それを順次隣接する画素に対して適用する。
Further,
しかしながら、この手法では、初期値の特定が上手くいかないと推定誤差が非常に大きくなるという課題がある。この手法では、初期値を設定するために、副画素の画素値変化が小さく、ほぼそれらの平均値とそれらをカバーする低解像画素値が等しくなる部分を画像から見つけ出している。そのため、初期値の設定に適当な部分が撮影画像から見つけられないと、初期値の推定が困難になってしまう。また、初期値の設定に適当な部分を探索する処理が必要になってしまう。 However, with this method, there is a problem that the estimation error becomes very large unless the initial value is specified. In this method, in order to set the initial value, the pixel value change of the sub-pixel is small, and a portion where the average value thereof and the low-resolution pixel value covering them are substantially equal is found from the image. Therefore, it is difficult to estimate the initial value unless a part suitable for setting the initial value is found from the captured image. In addition, it is necessary to search for an appropriate part for setting the initial value.
2.撮像素子
そこで本実施形態では、色の異なる複数のカラーフィルタが1画素内に配列された撮像素子により撮像する。そして、画素シフト(画素ずらし)により高フレームレートの低解像動画を撮像し、その低解像動画から簡素な画素推定手法で高解像画像を生成する。生成した高解像画像を用いて、動画の中の任意タイミングの高解像静止画を取得したり、高フレームレートの高解像動画を取得する。
2. In this embodiment, an image is picked up by an image pickup device in which a plurality of color filters having different colors are arranged in one pixel. Then, a low-resolution moving image with a high frame rate is picked up by pixel shift (pixel shifting), and a high-resolution image is generated from the low-resolution moving image by a simple pixel estimation method. Using the generated high-resolution image, a high-resolution still image at an arbitrary timing in the moving image is acquired, or a high-resolution moving image with a high frame rate is acquired.
なお、本実施形態の撮像素子では一般的なカラー画像は撮像されないが、本明細書では、本実施形態の撮像素子により撮像された被写体像を適宜画像や動画と呼ぶこととする。 Note that a general color image is not picked up by the image pickup device of the present embodiment, but in this specification, a subject image picked up by the image pickup device of the present embodiment is appropriately referred to as an image or a moving image.
ここで、以下では図7〜図44で後述する画素シフトと推定処理を行う場合を例に説明するが、本実施形態はこれに限定されない。例えば、本実施形態の撮像素子により取得された低解像画像に対して、種々の公知の高解像化手法を適用してもよい。 Here, a case where pixel shift and estimation processing described later with reference to FIGS. 7 to 44 will be described as an example, but the present embodiment is not limited to this. For example, various known high resolution techniques may be applied to the low resolution image acquired by the image sensor of the present embodiment.
図1に、本実施形態の撮像素子の構成例を示す。図1は、撮像素子をフィルタ部CF側から平面視した場合の模式図である。撮像素子は、フィルタ部CF、受光素子PD1〜PD4(受光領域)を含む。 FIG. 1 shows a configuration example of the image sensor of the present embodiment. FIG. 1 is a schematic diagram when the imaging device is viewed in plan from the filter unit CF side. The imaging element includes a filter portion CF and light receiving elements PD1 to PD4 (light receiving areas).
受光素子PD1〜PD4は、フィルタ部CFを透過した光の光電変換を行う素子であり、例えばフォトダイオードやフォトトランジスターである。例えば、受光素子PD1〜PD4は、水平走査方向と垂直走査方向に沿ってマトリックス状に配列される。なお以下では受光素子PD1を例に説明するが、他の受光素子についても同様である。 The light receiving elements PD1 to PD4 are elements that perform photoelectric conversion of light transmitted through the filter portion CF, and are, for example, photodiodes or phototransistors. For example, the light receiving elements PD1 to PD4 are arranged in a matrix along the horizontal scanning direction and the vertical scanning direction. Hereinafter, the light receiving element PD1 will be described as an example, but the same applies to other light receiving elements.
受光素子PD1に対応するフィルタ部は、複数色のフィルタcf1〜cf4で構成される。フィルタcf1〜cf4は、全て異なる色であってもよいし、一部同色であってもよい。このフィルタcf1〜cf4と受光素子PD1により撮像素子の画素が構成される。図7で後述するように、本実施形態では機械的な画素シフトが行われ、図9(A)で後述するように、画素シフトしながら画素の受光値a00,a10,a11,a01を順次取得する。 The filter unit corresponding to the light receiving element PD1 is composed of a plurality of color filters cf1 to cf4. The filters cf1 to cf4 may be all different colors or may be partially the same color. The filters cf1 to cf4 and the light receiving element PD1 constitute pixels of the image sensor. As described below in FIG. 7, in the present embodiment is performed mechanically pixel shift, 9 as described later in (A), receiving values of the pixels while shifting pixels a 00, a 10, a 11 , a 01 is acquired sequentially.
3.撮像素子の詳細な構成例
図2に、撮像素子の第1の詳細な構成例を示す。図2のH1は1画素の平面視図であり、H2、H3は側面図である。図2に示す撮像素子は、第1緑色フィルタgr、赤色フィルタr、青色フィルタb、第2緑色フィルタgb、受光素子PD1を含む。
3. Detailed Configuration Example of Image Sensor FIG. 2 shows a first detailed configuration example of the image sensor. H1 in FIG. 2 is a plan view of one pixel, and H2 and H3 are side views. The imaging element shown in FIG. 2 includes a first green filter gr, a red filter r, a blue filter b, a second green filter gb, and a light receiving element PD1.
フィルタgr,r,b,gbは、それぞれG(グリーン),R(レッド),B(ブルー),G(グリーン)を透過する原色系フィルタである。フィルタgr,r,b,gbの透過光による受光値を便宜的にv00,v10,v01,v11とすると、受光素子PD1の受光値はa00=v00+v10+v01+v11と表される。 The filters gr, r, b, and gb are primary color filters that transmit G (green), R (red), B (blue), and G (green), respectively. If the received light values of the transmitted light of the filters gr, r, b, gb are v 00 , v 10 , v 01 , v 11 for convenience, the received light value of the light receiving element PD1 is a 00 = v 00 + v 10 + v 01 + v 11 It is expressed.
図7〜図44で後述する推定処理を行うと、例えば3メガピクセルの撮像素子を利用して12メガピクセルの画像が得られる。上述の受光値v00,v10,v01,v11は、12メガピクセルの画像の画素値に対応する。具体的には、受光値v00,v10,v01,v11の加算は、下式(1),(5)で後述する中間画素値や推定画素値の加算に対応する。すなわち、複数のフィルタgr,r,b,gbを透過した光を共通の受光素子PD1で受光するため、複数受光値の加算が画素内で行われる。 When the estimation process described later with reference to FIGS. 7 to 44 is performed, an image of 12 megapixels is obtained using, for example, a 3 megapixel image sensor. The above-described received light values v 00 , v 10 , v 01 , v 11 correspond to pixel values of a 12 megapixel image. Specifically, the addition of the received light values v 00 , v 10 , v 01 , v 11 corresponds to the addition of intermediate pixel values and estimated pixel values, which will be described later with the following equations (1) and (5). That is, since the light that has passed through the plurality of filters gr, r, b, and gb is received by the common light receiving element PD1, a plurality of light reception values are added within the pixel.
本実施形態では、後述する推定処理によりGr,R,B,Gbのモザイク画像が求められる。このモザイク画像に対してデモザイキング処理を行うことで、高解像なカラー画像が得られる。 In the present embodiment, Gr, R, B, and Gb mosaic images are obtained by an estimation process that will be described later. By performing demosaicing processing on this mosaic image, a high-resolution color image can be obtained.
本実施形態によれば、複数のフィルタに対して受光素子を共通化するため、プロセスルール(配線幅)が同じ場合には画素が大きくなることで相対的に開口率を向上可能である。また、開口率が向上することで感度を向上できる。また、画素が大きくなることでセンサを製造する際の歩留まりを向上できる。 According to this embodiment, since the light receiving elements are made common to a plurality of filters, the aperture ratio can be relatively improved by increasing the size of pixels when the process rule (wiring width) is the same. Further, the sensitivity can be improved by improving the aperture ratio. Moreover, the yield at the time of manufacturing a sensor can be improved because a pixel becomes large.
図3に、撮像素子の第2の詳細な構成例を示す。図3に示す撮像素子は、第1緑色フィルタg1、赤色フィルタr1/r、青色フィルタb1/r、第2緑色フィルタgb1/r 2、受光素子PD1を含む。 FIG. 3 shows a second detailed configuration example of the image sensor. The imaging element shown in FIG. 3 includes a first green filter g 1 , a red filter r 1 / r , a blue filter b 1 / r , a second green filter gb 1 / r 2 , and a light receiving element PD 1 .
フィルタg1,r1/r,b1/r,gb1/r 2は、個別に透過率が設定されている。具体的には、フィルタr1/r,b1/rの透過率は、フィルタgb1の透過率に対して1/r(rは、r≧1の実数)の重み付けがされている。フィルタgb1/r 2の透過率は、フィルタgb1の透過率に対して1/r2の重み付けがされている。すなわち、受光素子PD1の受光値はa00=v00+(1/r)v10+(1/r)v01+(1/r2)v11と表される。例えば、透過率の重み付けは、カラーフィルタの色素濃度や、カラーフィルタの厚さを変えることで実現できる。
The filters g 1 , r 1 / r , b 1 / r , and gb 1 / r 2 have individual transmittances. Specifically, the transmittances of the filters r 1 / r and b 1 / r are weighted 1 / r (r is a real number satisfying r ≧ 1) with respect to the transmittance of the filter gb 1 . Transmittance of the filter gb 1 / r 2 is the weighting of 1 / r 2 with respect to the transmittance of the filter gb 1. In other words, the light-receiving values of the light receiving element PD1 is expressed as a 00 = v 00 + (1 / r)
本実施形態によれば、より高解像な推定画素値を推定可能になる。具体的には、被写体像のサンプリングにおいて、画素開口をコンボリューションの窓関数と考えることができる。上記の重み付けがされた場合、重み付けされない場合(r=1)に比べてより高周波成分の多い窓関数となる。そのため、受光値a00にも高周波成分がより多く含まれ、その受光値a00から推定された画素値もより高解像となる。 According to the present embodiment, it is possible to estimate a higher resolution estimated pixel value. Specifically, the pixel aperture can be considered as a window function for convolution in sampling of the subject image. When the above weighting is performed, the window function has more high frequency components than when the weighting is not performed (r = 1). For this reason, the received light value a 00 includes more high-frequency components, and the pixel value estimated from the received light value a 00 also has higher resolution.
また、本実施形態によれば、重み付け加算の重み付け係数をカラーフィルタの透過率により設定できるため、重み付け加算のための回路やソフトウエアを削減できる。具体的には、受光素子の外部において電気信号で加算する場合には、アナログ方式ではアンプのゲインを重み付けに応じたものに設定する必要があり、デジタル方式では割り算やビットシフトなどの計算を行う必要がある。そのため、回路規模の増加や演算速度の低下が発生する。この点、本実施形態では、重み付けを各カラーフィルタの透過率で設定するため、そのような問題が発生しない。 Further, according to the present embodiment, since the weighting coefficient for weighted addition can be set by the transmittance of the color filter, the circuits and software for weighted addition can be reduced. Specifically, when adding an electrical signal outside the light receiving element, it is necessary to set the gain of the amplifier in accordance with the weighting in the analog method, and calculations such as division and bit shift are performed in the digital method. There is a need. As a result, the circuit scale increases and the calculation speed decreases. In this regard, in this embodiment, since weighting is set by the transmittance of each color filter, such a problem does not occur.
図4に、撮像素子の第3の詳細な構成例を示す。図4に示す撮像素子は、第1緑色フィルタgr、赤色フィルタr、青色フィルタb、第2緑色フィルタgb、ND(Neutral Density)フィルタNF、受光素子PD1を含む。 FIG. 4 shows a third detailed configuration example of the image sensor. The imaging element shown in FIG. 4 includes a first green filter gr, a red filter r, a blue filter b, a second green filter gb, an ND (Neutral Density) filter NF, and a light receiving element PD1.
NDフィルタNFは、全波長域(例えば可視光帯域)に対して比較的一定の透過率を示すフィルタである。本実施形態では、上述の重み付けをNDフィルタNFにより行う。図5にNDフィルタNFの詳細な構成例を示す。NDフィルタNFは、第1〜第4フィルタnd1〜nd4を含む。フィルタnd1〜nd4は、それぞれフィルタgr,r,b,gbと平面視において重なっている。フィルタgr,r,b,gbの透過率は、全て重み付け1である。フィルタnd2,nd3の透過率は、フィルタnd1の透過率に対して1/rの重み付けがされている。フィルタnd4の透過率は、フィルタnd1の透過率に対して1/r2の重み付けがされている。 The ND filter NF is a filter that exhibits a relatively constant transmittance over the entire wavelength range (for example, the visible light band). In the present embodiment, the above weighting is performed by the ND filter NF. FIG. 5 shows a detailed configuration example of the ND filter NF. The ND filter NF includes first to fourth filters nd1 to nd4. The filters nd1 to nd4 overlap with the filters gr, r, b, and gb, respectively, in plan view. The transmittances of the filters gr, r, b, and gb are all weighted 1. The transmittances of the filters nd2 and nd3 are weighted by 1 / r with respect to the transmittance of the filter nd1. The transmittance of the filter nd4 is weighted by 1 / r 2 with respect to the transmittance of the filter nd1.
なお本実施形態では、フィルタNFはNDフィルタに限定されず、波長の選択を目的としないフィルタであればよい。 In the present embodiment, the filter NF is not limited to the ND filter, and may be any filter that does not aim at wavelength selection.
本実施形態によれば、波長選択用のRGBフィルタgr,r,b,gbを、従来と同じ手法で製造することが可能である。そのため、重み付け加算を行うために特別にカラーフィルタの材質やプロセスを用意する必要がない。また、透過率の制御を目的としたNDフィルタは、広く知られ利用されているフィルタであるため、重み付けの実現が容易である。 According to the present embodiment, the wavelength selection RGB filters gr, r, b, and gb can be manufactured by the same method as the conventional one. Therefore, it is not necessary to prepare a color filter material or process in order to perform weighted addition. Moreover, since the ND filter for the purpose of controlling the transmittance is a widely known and used filter, it is easy to realize weighting.
図6に、撮像素子の第4の詳細な構成例を示す。図6に示す撮像素子は、シアンフィルタc、マゼンダフィルタm、イエローフィルタy、緑色フィルタg、受光素子PD1を含む。 FIG. 6 shows a fourth detailed configuration example of the image sensor. The imaging element shown in FIG. 6 includes a cyan filter c, a magenta filter m, a yellow filter y, a green filter g, and a light receiving element PD1.
フィルタc,m,y,gは、C(シアン)、M(マゼンダ)、Y(イエロー)、G(グリーン)を透過する補色系フィルタである。本実施形態では、後述の推定処理により、C,M,Y,Gのモザイク画像が求められる。このモザイク画像に対してRGB変換やデモザイキング処理を行うことで、高解像なカラー画像が得られる。なお、上述のように透過率の重み付けを行うことも可能である。すなわち、カラーフィルタの透過率を調整してもよいし、NDフィルタを加えて透過率を調整してもよい。 The filters c, m, y, and g are complementary color filters that transmit C (cyan), M (magenta), Y (yellow), and G (green). In the present embodiment, C, M, Y, and G mosaic images are obtained by an estimation process described later. A high-resolution color image can be obtained by performing RGB conversion and demosaicing processing on the mosaic image. It is also possible to weight the transmittance as described above. That is, the transmittance of the color filter may be adjusted, or the transmittance may be adjusted by adding an ND filter.
以上のように本実施形態の撮像装置は、撮像素子と、読み出し制御部と、推定演算部、画像出力部を含む。図1に示すように、撮像素子は、複数の受光素子PD1〜PD4と、フィルタ部CFを有する。読み出し制御部は、複数の受光素子PD1〜PD4の受光値を読み出して低解像フレーム画像を取得する。推定演算部は、低解像フレーム画像に基づいて、低解像フレーム画像の画素ピッチよりも小さい画素ピッチの推定画素値を推定する。画像出力部は、推定画素値に基づいて、低解像フレーム画像よりも高解像度の高解像フレーム画像を出力する。この場合に、フィルタ部CFには、1つの受光素子PD1に対応するフィルタとして、異なる色の複数のフィルタcf1〜cf4が配列される。 As described above, the imaging apparatus according to the present embodiment includes the imaging element, the readout control unit, the estimation calculation unit, and the image output unit. As illustrated in FIG. 1, the imaging element includes a plurality of light receiving elements PD1 to PD4 and a filter unit CF. The read control unit reads the light reception values of the plurality of light receiving elements PD1 to PD4 and acquires a low resolution frame image. The estimation calculation unit estimates an estimated pixel value having a pixel pitch smaller than the pixel pitch of the low resolution frame image based on the low resolution frame image. The image output unit outputs a high-resolution frame image having a higher resolution than the low-resolution frame image based on the estimated pixel value. In this case, a plurality of filters cf1 to cf4 of different colors are arranged in the filter unit CF as filters corresponding to one light receiving element PD1.
本実施形態では、読み出し制御部は、図32等で後述する重畳シフトサンプリング部140に対応する。推定演算部は、図32等で後述する画素値推定演算部230に対応する。画像出力部は、図32等で後述するアンチエリアシングフィルタ240に対応する。なお、フィルタ部CFやフィルタcf1〜cf4は、カラーフィルタのみから構成されてもよく、カラーフィルタと他のフィルタを含んでもよい。
In the present embodiment, the read control unit corresponds to the superposition
本実施形態によれば、異なる色の複数のフィルタcf1〜cf4の透過光を1つの受光素子PD1で受光できる。これにより、上述のように開口率の向上やセンサ感度の向上が可能になる。また本実施形態によれば、低解像画像を撮像し、その低解像画像から高解像画像を求めることが可能になる。すなわち、受光値に対して後述の推定処理を行うことで高解像画像を推定できる。これにより、撮像画像データのデータ量を削減できるため、ストレージの節約や通信データ量の削減が可能になる。 According to this embodiment, the light transmitted through the plurality of filters cf1 to cf4 of different colors can be received by one light receiving element PD1. As a result, the aperture ratio and sensor sensitivity can be improved as described above. Further, according to the present embodiment, it is possible to capture a low resolution image and obtain a high resolution image from the low resolution image. That is, a high-resolution image can be estimated by performing an estimation process described later on the received light value. Thereby, since the data amount of captured image data can be reduced, it is possible to save storage and reduce the amount of communication data.
また本実施形態では、図3に示すように、複数のフィルタの各フィルタは、重み付けされた透過率を有する。図39〜図44で後述するように、推定演算部は、重み付けされた透過率により得られた受光値に基づいて推定を行う。 In the present embodiment, as shown in FIG. 3, each of the plurality of filters has a weighted transmittance. As will be described later with reference to FIGS. 39 to 44, the estimation calculation unit performs estimation based on the received light value obtained from the weighted transmittance.
具体的には、フィルタ部CFは、1つの受光素子PD1に対応するフィルタとして、ベイヤ配列のフィルタを有する。ベイヤ配列のフィルタは、第1緑色フィルタg1と、赤色フィルタr1/rと、青色フィルタb1/rと、第2緑色フィルタgb1/r 2を有する。赤フィルタr1/rと青色フィルタb1/rの透過率は、記第1緑色フィルタg1の透過率に対して1/rである。第2緑色フィルタgb1/r 2の透過率は、第1緑色フィルタg1の透過率に対して1/r2である。 Specifically, the filter unit CF includes a Bayer array filter as a filter corresponding to one light receiving element PD1. The Bayer array filter includes a first green filter g 1 , a red filter r 1 / r , a blue filter b 1 / r, and a second green filter gb 1 / r 2 . The transmittance of the red filter r 1 / r and the blue filter b 1 / r is 1 / r with respect to the transmittance of the first green filter g 1 . The transmittance of the second green filter gb 1 / r 2 is 1 / r 2 with respect to the transmittance of the first green filter g 1 .
あるいは図4に示すように、フィルタ部CFは、カラーフィルタgr,r,b,gbと、重み付けされた透過率を有するNDフィルタnd1〜nd4を有してもよい。 Alternatively, as illustrated in FIG. 4, the filter unit CF may include color filters gr, r, b, and gb and ND filters nd1 to nd4 having weighted transmittances.
このようにすれば、重み付けされた透過率の複数のフィルタを透過した光を、1つの受光素子で受光できる。これにより、上述のように、画素内で重み付け加算を行うことが可能になり、重み付けがない場合に比べて推定画像を高解像化できる。また、NDフィルタを用いた場合には、従来のカラーフィルタを利用可能なため、開発負担を軽減できる。 In this way, light that has passed through a plurality of filters with weighted transmittance can be received by one light receiving element. Accordingly, as described above, it is possible to perform weighted addition within a pixel, and it is possible to increase the resolution of the estimated image compared to the case where there is no weighting. In addition, when the ND filter is used, the development load can be reduced because the conventional color filter can be used.
4.画素シフト
以下では、本実施形態が行う推定処理について詳細に説明する。まず、図7を用いて、本実施形態が行う画素シフトについて説明する。図7には、撮像装置の基本構成例を模式的に示す。この撮像装置は、レンズ410(広義には、結像光学系)、撮像素子420(センサ、イメージャ)を含む。
4). Pixel Shift Hereinafter, the estimation process performed by the present embodiment will be described in detail. First, the pixel shift performed by the present embodiment will be described with reference to FIG. FIG. 7 schematically illustrates a basic configuration example of the imaging apparatus. This imaging apparatus includes a lens 410 (imaging optical system in a broad sense) and an imaging element 420 (sensor, imager).
レンズ410は、被写体Objの像を撮像素子420の受光面に結像させる。C1に示すように、図示しないレンズ駆動部によりレンズ410に対して画素シフト制御が行われる。ここで、撮像素子420の画素ピッチをpとする。そうすると、レンズ410は、光軸と直交するx軸(またはy軸)に沿った方向にシフト量p/2(広義には、シフト量s<p)ずつシフトされる。このとき、レンズ410がp/2ずつシフトされるのに従って、受光面上の被写体像もシフト量p/2ずつシフトされる。
The
撮像素子420は、レンズ410により結像された被写体Objの像を撮像する。具体的には、レンズ410のシフト動作ごとに撮像を行って、p/2ずつシフトされた被写体像をサンプリングする。このように、本実施形態では、画素シフトによりp/2ずつシフトされた画素ピッチpの低解像フレーム画像が取得される。
The
なお、上記構成例では、レンズ410がシフト量p/2ずつシフトされる場合を例に説明したが、本実施形態では、撮像素子420がシフト量p/2ずつシフトされてもよい。
In the above configuration example, the case where the
5.第1の推定手法
本実施形態では、上述のようにして取得された画素ピッチpの低解像フレーム画像から、画素ピッチp/2の画素値を推定し、高解像フレーム画像を生成する。図8〜図16を用いて、この画素ピッチp/2の画素値を推定する手法について説明する。なお、本明細書では簡単のため、撮像素子の画素により取得される画素値を受光値と呼び、推定により得られる画素値を推定画素値と呼ぶ。
5. First Estimation Method In this embodiment, the pixel value of the pixel pitch p / 2 is estimated from the low resolution frame image of the pixel pitch p acquired as described above, and a high resolution frame image is generated. A method for estimating the pixel value of the pixel pitch p / 2 will be described with reference to FIGS. In the present specification, for the sake of simplicity, a pixel value acquired by a pixel of the image sensor is referred to as a received light value, and a pixel value obtained by estimation is referred to as an estimated pixel value.
図8に、画素推定に用いられる推定処理ブロックの説明図を示す。図8では、低解像フレーム画像の画素を実線の四角で示し、水平方向の画素位置をiで示し、垂直方向の画素位置をjで示す(i、jは自然数)。 FIG. 8 is an explanatory diagram of an estimation processing block used for pixel estimation. In FIG. 8, pixels of the low-resolution frame image are indicated by solid-line squares, pixel positions in the horizontal direction are indicated by i, and pixel positions in the vertical direction are indicated by j (i and j are natural numbers).
図8に示すように、本実施形態では、m×n画素を1ブロックとする推定処理ブロックBk00、Bk10、・・・を設定する。そして、この推定処理ブロック毎に、後述する画素値の推定処理を行う。この推定処理により、m×n画素から2m×2n画素の推定画素値が推定される。なお、以下では簡単のため、m×n=1×1画素から2×2画素を推定する場合を例に説明する。 As shown in FIG. 8, in this embodiment, estimation processing blocks Bk 00 , Bk 10 ,... With m × n pixels as one block are set. Then, pixel value estimation processing described later is performed for each estimation processing block. By this estimation process, an estimated pixel value from m × n pixels to 2m × 2n pixels is estimated. In the following, for the sake of simplicity, a case where 2 × 2 pixels are estimated from m × n = 1 × 1 pixels will be described as an example.
図9(A)、図9(B)に、推定処理に用いる受光値及び中間画素値の説明図を示す。図9(A)に示すように、撮像素子の画素ピッチpの画素(受光単位)をp/2ずつ画素シフトすることで、受光値a00、a10、a11、a01(画素値)が順次取得される。本実施形態では、この4つの受光値から画素ピッチp/2の推定画素値を推定する。なお、受光値a00〜a11は、撮像により取得された受光値そのものであってもよく、後述する時間軸補間により補間された受光値であってもよい。 FIG. 9A and FIG. 9B are explanatory diagrams of received light values and intermediate pixel values used for estimation processing. As shown in FIG. 9A, the light receiving values a 00 , a 10 , a 11 , a 01 (pixel values) are obtained by shifting the pixels (light receiving units) with the pixel pitch p of the image sensor by p / 2. Are acquired sequentially. In the present embodiment, the estimated pixel value of the pixel pitch p / 2 is estimated from the four received light values. The light reception values a 00 to a 11 may be the light reception values themselves acquired by imaging, or may be light reception values interpolated by time axis interpolation described later.
このとき、図9(B)に示すように、水平方向の画素ピッチがp/2の中間画素値b00〜b21(中間推定画素値)を受光値a00〜a11から推定する。そして、この中間画素値b00〜b21から、水平垂直方向の画素ピッチがp/2の推定画素値を最終的に推定する。 At this time, as shown in FIG. 9B, intermediate pixel values b 00 to b 21 (intermediate estimated pixel values) having a horizontal pixel pitch of p / 2 are estimated from the received light values a 00 to a 11 . Then, from the intermediate pixel values b 00 to b 21 , an estimated pixel value having a horizontal / vertical pixel pitch of p / 2 is finally estimated.
この中間画素値の推定手法について、図10に示す水平方向の最初の行の中間画素値b00〜b20を例に説明する。受光値と中間画素値の間には、下式(1)の関係が成り立つ。
a00=b00+b10,
a10=b10+b20 ・・・ (1)
This intermediate pixel value estimation method will be described by taking the intermediate pixel values b 00 to b 20 in the first horizontal row shown in FIG. 10 as an example. The relationship of the following formula (1) is established between the light reception value and the intermediate pixel value.
a 00 = b 00 + b 10 ,
a 10 = b 10 + b 20 (1)
b00を未知数(初期値、基準値)として上式(1)を変形すると、下式(2)に示すように、中間画素値b10、b20をb00の関数として表すことができる。
b00=(未知数),
b10=a00−b00,
b20=b00+δi0=b00+(a10−a00) ・・・ (2)
When the above equation (1) is transformed with b 00 as an unknown (initial value, reference value), the intermediate pixel values b 10 and b 20 can be expressed as a function of b 00 as shown in the following equation (2).
b 00 = (unknown number),
b 10 = a 00 −b 00 ,
b 20 = b 00 + δi 0 = b 00 + (a 10 −a 00 ) (2)
ここで、下式(3)に示すように、δi0は1シフト離れた受光値の差分値であり、中間画素値b20、b00の差分値に対応する。
δi0=a10−a00
=(b10+b20)−(b00+b10)
=b20−b00 ・・・ (3)
Here, as shown in the following equation (3), δi 0 is a difference value between the received light values one shift away, and corresponds to the difference value between the intermediate pixel values b 20 and b 00 .
δi 0 = a 10 −a 00
= (B 10 + b 20 ) − (b 00 + b 10 )
= B 20 -b 00 (3)
このようにして、b00を未知数とする高精細な中間画素値{b00,b10,b20}の組合せパターンが求められる。このb00の関数として表わされた中間画素値の値を決定するためには、未知数b00を求める必要がある。 In this way, a combination pattern of high-definition intermediate pixel values {b 00 , b 10 , b 20 } with b 00 as an unknown is obtained. To determine the value of the intermediate pixel values represented as a function of the b 00, it is necessary to determine the unknown b 00.
図11に示すように、本実施形態では、重畳シフトサンプリング(画素シフト)により検出される画素値によるパターン{a00,a10}と中間画素値によるパターン{b00,b10,b20}を比較する。そして、その誤差が最小になる未知数b00を導出し、導出した未知数b00を最終的な中間画素値b00として設定する。 As shown in FIG. 11, in the present embodiment, a pattern {a 00 , a 10 } based on pixel values detected by superposition shift sampling (pixel shift) and a pattern {b 00 , b 10 , b 20 } based on intermediate pixel values are used. Compare Then, an unknown number b 00 that minimizes the error is derived, and the derived unknown number b 00 is set as the final intermediate pixel value b 00 .
具体的には、下式(4)に示すように、誤差の評価関数Ejを未知数b00の関数で表す。そして、図12に示すように、評価関数Ejを最小(極小値)にする未知数b00=αを探索的に求める(最小二乗法)。
上式(4)に示すように、本実施形態では、中間画素値の平均値と、低域周波数成分をもつパターン{a00,a10}の誤差評価を行う。これにより、中間画素値{b00,b10,b20}の推定解として高域周波数成分を多く含むパターンが導出されることを抑止できる。すなわち、仮に未知数の推定が不正確となったとしても、低域周波数成分を多く含む画像を生成することになる。そのため、低域周波数成分よりも不自然さが強調され易い高域周波数成分に誤りを含むパターンを生成することを抑止でき、画像としては見た目の自然さを失うことがない。これにより、低域周波数成分に比べて高域周波数成分が小さい自然画像に対して、合理的な画素推定が可能になる。 As shown in the above equation (4), in the present embodiment, error evaluation is performed on the average value of the intermediate pixel values and the pattern {a 00 , a 10 } having a low frequency component. Thus, possible to prevent the pattern including many high frequency components as the estimated solution of the intermediate pixel values {b 00, b 10, b 20} is derived. That is, even if the estimation of the unknown is inaccurate, an image including a large amount of low frequency components is generated. For this reason, it is possible to suppress generation of a pattern including an error in a high frequency component in which unnaturalness is more easily emphasized than in a low frequency component, and the natural appearance of the image is not lost. Thereby, rational pixel estimation is possible for a natural image having a small high frequency component compared to a low frequency component.
このようにして、中間画素値b00の値を推定し、推定したb00の値を上式(2)に代入して中間画素値b10、b20の値を決定する。そして、同様にb01を未知数として2行目の中間画素値b01〜b21を推定する。 In this way, the value of the intermediate pixel value b 00 is estimated, and the estimated value of b 00 is substituted into the above equation (2) to determine the values of the intermediate pixel values b 10 and b 20 . Similarly, the intermediate pixel values b 01 to b 21 in the second row are estimated using b 01 as an unknown quantity.
次に、推定した中間画素値bijを用いて最終的な推定画素値vijを求める手法について説明する。図13(A)、図13(B)に、中間画素値と推定画素値の説明図を模式的に示す。図13(A)に示すように、上述の手法で推定した3列の中間画素値b00〜b21のうち、2列の中間画素値b00〜b11を用いる。そして、図13(B)に示すように、中間画素値b00〜b11から、最終的な画素ピッチp/2の推定画素値v00〜v12を推定する。 Next, a method for obtaining the final estimated pixel value v ij using the estimated intermediate pixel value b ij will be described. FIGS. 13A and 13B schematically illustrate the intermediate pixel value and the estimated pixel value. As shown in FIG. 13A, two columns of intermediate pixel values b 00 to b 11 are used among the three columns of intermediate pixel values b 00 to b 21 estimated by the above-described method. Then, as shown in FIG. 13B, estimated pixel values v 00 to v 12 of the final pixel pitch p / 2 are estimated from the intermediate pixel values b 00 to b 11 .
以下では、説明を簡単にするために、図14に示す1列目の画素値v00〜v02を例に説明する。画素値v00〜v02の推定は、上述の中間画素値の推定手法と同様の手法で行う。具体的には、中間画素値b00、b01は、画素値v00〜v02を垂直方向に2画素単位で1画素ずつシフトさせながら重畳サンプリングした値と等価である。そのため、中間画素値と推定画素値の間には、下式(5)の関係が成り立つ。
b00=v00+v01,
b01=v01+v02 ・・・ (5)
Hereinafter, in order to simplify the description, the pixel values v 00 to v 02 in the first column shown in FIG. 14 will be described as an example. The pixel values v 00 to v 02 are estimated by a method similar to the above-described intermediate pixel value estimation method. Specifically, the intermediate pixel values b 00 and b 01 are equivalent to values obtained by superimposing and sampling the pixel values v 00 to v 02 while shifting the pixel values v 00 to v 02 in units of 2 pixels in the vertical direction. Therefore, the relationship of the following formula (5) is established between the intermediate pixel value and the estimated pixel value.
b 00 = v 00 + v 01 ,
b 01 = v 01 + v 02 (5)
下式(6)に示すように、画素値v01、v02を未知数v00の関数として表すことができる。
v00=(未知数),
v01=b00−v00,
v02=v00+δj0=v00+(b01−b00) ・・・ (6)
As shown in the following equation (6), the pixel values v 01 and v 02 can be expressed as a function of the unknown v 00 .
v 00 = (unknown number),
v 01 = b 00 −v 00 ,
v 02 = v 00 + δj 0 = v 00 + (b 01 −b 00 ) (6)
ここで、下式(7)に示すように、δj0は1シフト離れた中間画素値の差分値であり、画素値v02、v00の差分値に対応する。
δi0=b01−b00
=(v01+v02)−(v00+v01)
=v02−v00 ・・・ (7)
Here, as shown in the following equation (7), δj 0 is a difference value between the intermediate pixel values separated by one shift, and corresponds to the difference value between the pixel values v 02 and v 00 .
δi 0 = b 01 −b 00
= (V 01 + v 02 )-(v 00 + v 01 )
= V 02 -v 00 (7)
図15に示すように、中間画素値によるパターン{b00,b10}と、推定画素値によるパターン{v00,v01、v02}の誤差が最小になる未知数v00を導出する。すなわち、下式(8)に示すように、誤差を評価関数Eiで表し、図16に示すように、その評価関数Eiを最小にする未知数v00=βを探索的に求める。
そして、同様の処理により2列目の画素値v10〜v12を求め、最終的な推定画素値v00、v01、v10、v11を決定する。なお、本実施形態では、最終推定画素値により構成される画像データに適当なノイズ低減処理を施して表示画像としてもよい。 Then, the pixel values v 10 to v 12 in the second column are obtained by the same process, and final estimated pixel values v 00 , v 01 , v 10 , and v 11 are determined. In the present embodiment, an appropriate noise reduction process may be performed on the image data composed of the final estimated pixel values to obtain a display image.
ここで、上述の実施形態では、未知数b00、v00を探索的に求める場合について説明したが、本実施形態では、未知数b00、v00を直接的に求めてもよい。すなわち、上式(4)に示す誤差Ejの式はb00の2次関数式であるので、下式(9)の形に式変形が可能である。そのため、Ejを最小にするb00の最小値αを直接的に求められる。v00の最小値βについても同様に求められる。
Ej=(b00−α)2+ξ ・・・ (9)
Here, although the case where the unknown numbers b 00 and v 00 are obtained in an exploratory manner has been described in the above-described embodiment, the unknown numbers b 00 and v 00 may be directly obtained in the present embodiment. That is, the error expression Ej shown in Equation (4) Since a quadratic function formula of b 00, are possible wherein deformation in the form of the following equation (9). Therefore, the minimum value α of b 00 that minimizes Ej can be directly obtained. The minimum value β of v 00 is obtained in the same manner.
Ej = (b 00 −α) 2 + ξ (9)
さて、上述のように、静止画撮影モードと動画撮影モードを切り替える手法では、ユーザがシャッターチャンスに気付いたときには既に決定的瞬間を逃していることが多いという課題がある。また、超解像処理により低解像動画から高解像静止画を合成する手法では、超解像処理が大負荷の処理であることから、処理回路の規模が増大してしまう等の課題がある。 As described above, in the method of switching between the still image shooting mode and the moving image shooting mode, there is a problem that when the user notices a photo opportunity, the decisive moment is often missed. In addition, in the method of synthesizing a high-resolution still image from a low-resolution moving image by super-resolution processing, since the super-resolution processing is a heavy load processing, there is a problem that the scale of the processing circuit increases. is there.
この点、本実施形態によれば、画素を重畳しながら順次画素シフトさせて被写体像がサンプリングされ、画素シフトされながら撮像素子により各撮像動作が行われ、各撮像動作により得られた画素の受光値が低解像フレーム画像として取得される。そして、取得された低解像フレーム画像が記憶され、記憶された複数の低解像フレーム画像に基づいて、低解像フレーム画像の画素ピッチよりも小さい画素ピッチの推定画素値が推定される。推定された推定画素値に基づいて、低解像フレーム画像よりも高解像度の高解像フレーム画像が出力される。このとき、画素シフトされる画素が、第1のポジションと、第1のポジションの次の第2のポジションに順次設定される。第1、第2のポジションの画素は、重畳する。そして、第1、第2のポジションの画素の受光値の差分値が求められ、その差分値に基づいて推定画素値が推定される。 In this regard, according to the present embodiment, the subject image is sampled by sequentially shifting the pixels while superimposing the pixels, and each imaging operation is performed by the imaging device while the pixels are shifted, and light reception of the pixels obtained by each imaging operation is performed. The value is acquired as a low resolution frame image. The acquired low-resolution frame image is stored, and an estimated pixel value having a pixel pitch smaller than the pixel pitch of the low-resolution frame image is estimated based on the plurality of stored low-resolution frame images. Based on the estimated pixel value, a high-resolution frame image having a higher resolution than the low-resolution frame image is output. At this time, the pixels to be pixel-shifted are sequentially set to the first position and the second position next to the first position. The pixels at the first and second positions overlap. And the difference value of the light reception value of the pixel of the 1st, 2nd position is calculated | required, and an estimated pixel value is estimated based on the difference value.
例えば、図7に示すように、撮像素子の画素ピッチpに対してp/2ずつ水平方向または垂直方向にシフトされる。図9(A)に示すように、この画素シフトでは、p/2ずつ画素が重畳される。第1〜第4フレームでは、受光値a00、a10、a11、a01を含む低解像フレーム画像が順次取得される。これらの低解像フレーム画像は、例えば図32に示す撮像装置10により取得され、画像処理装置20に入力され、フレームバッファ210(記憶部)に記憶される。そして、画素値推定演算部230(推定演算部)により、画素ピッチpよりも小さいピッチp/2の推定画素値v00〜v11が推定され、アンチエリアシングフィルタ240(画像出力部)により高解像フレーム画像が出力される。このとき、図9(A)に示すように、第1、第2フレームでは、受光値a00、a10を取得する第1、第2のポジションに画素が設定される。これらの画素は、推定画素v10、v11を含む領域において重畳する。そして、図10等で上述のように、差分値δi0=a10−a00が求められ、差分値δi0に基づいて推定画素値v00〜v11が推定される。
For example, as shown in FIG. 7, the pixel pitch p of the image sensor is shifted by p / 2 in the horizontal direction or the vertical direction. As shown in FIG. 9A, in this pixel shift, pixels are superimposed by p / 2. In the first to fourth frames, low-resolution frame images including the received light values a 00 , a 10 , a 11 , a 01 are sequentially acquired. These low-resolution frame images are acquired by, for example, the
これにより、簡素な処理で動画から高解像画像を取得することが可能になる。具体的には、差分値δi0により中間画素値を推定することで推定処理を簡素化できる。また、高解像静止画は、低解像動画の任意タイミングのものを生成できるため、ユーザは、決定的瞬間の高解像静止画を容易に得ることができる。また、撮影時には低解像動画(例えば3メガピクセル)を取得することで高フレームレート(例えば60フレーム)で撮影し、必要に応じて高解像静止画(12メガピクセル)やハイビジョン動画を表示できる。また、デジタルズームの場合には、画素数の低下を推定処理により補って高精細なズーム画像を生成できる。 Thereby, it becomes possible to acquire a high resolution image from a moving image with a simple process. Specifically, the estimation process can be simplified by estimating the intermediate pixel value from the difference value δi 0 . In addition, since the high-resolution still image can be generated at any timing of the low-resolution moving image, the user can easily obtain the high-resolution still image at the decisive moment. Also, during shooting, a low-resolution video (eg 3 megapixels) is acquired to shoot at a high frame rate (eg 60 frames), and a high-resolution still image (12 megapixels) or a high-definition video is displayed as needed. it can. In the case of digital zoom, a high-definition zoom image can be generated by compensating for the decrease in the number of pixels by estimation processing.
より具体的には、本実施形態では、第1のポジションの画素から重畳領域を除いた第1の受光領域の受光値である第1の中間画素値と、第2のポジションの画素から重畳領域を除いた第2の受光領域の受光値である第2の中間画素値との関係式が、差分値を用いて表される。そして、その関係式を用いて第1、第2の中間画素値が推定され、推定された第1の中間画素値を用いて画素の各画素の画素値が求められる。 More specifically, in the present embodiment, the first intermediate pixel value, which is the light reception value of the first light receiving region obtained by removing the overlap region from the pixel at the first position, and the overlap region from the pixel at the second position. A relational expression with the second intermediate pixel value, which is the light reception value of the second light receiving region excluding, is expressed using the difference value. Then, the first and second intermediate pixel values are estimated using the relational expression, and the pixel value of each pixel of the pixel is obtained using the estimated first intermediate pixel value.
例えば、図9(A)、図9(B)で上述のように、第1の受光領域は、第1の中間画素値b00を取得する領域に対応する。また、第2の受光領域は、第2の中間画素値b20を取得する領域に対応する。そして、図10で上述のように、差分値δi0を用いて関係式b20=b00+δi0が求められる。図11で上述のように、未知数b00が推定され、関係式を用いてb20が推定される。図13(A)等で上述のように、b00を用いて、推定画素値v00、v01が求められる。 For example, as described above with reference to FIGS. 9A and 9B, the first light receiving region corresponds to a region from which the first intermediate pixel value b 00 is acquired. The second light receiving region corresponds to a region for acquiring the second intermediate pixel value b 20. Then, as described above with reference to FIG. 10, the relational expression b 20 = b 00 + δi 0 is obtained using the difference value δi 0 . As described above in FIG. 11, the estimated unknown b 00, b 20 are estimated using the relational expression. As described above with reference to FIG. 13A and the like, estimated pixel values v 00 and v 01 are obtained using b 00 .
このようにすれば、重畳シフトされた受光値から中間画素値を一旦推定し、その重畳シフトされた中間画素値から推定画素値を求めることで、高解像画像の推定処理を簡素化できる。例えば、上述の比較例に比べて、2次元フィルタの繰り返し演算(特許文献1)や、初期値の設定に適当な部分を探索(特許文献2)する等の複雑な処理が不要となる。 In this way, the estimation process of the high resolution image can be simplified by once estimating the intermediate pixel value from the superposed shifted light reception value and obtaining the estimated pixel value from the superposed shifted intermediate pixel value. For example, compared with the above-described comparative example, complicated processing such as a repetitive calculation of a two-dimensional filter (Patent Document 1) and a search for an appropriate part for setting an initial value (Patent Document 2) is not required.
また、本実施形態では、第1、第2の中間画素値を含む連続する(連続する順番の)中間画素値を中間画素値パターンとする場合に、中間画素値パターンの中間画素値間の関係式が画素の受光値を用いて表される。そして、中間画素値パターンと受光値パターン(画素の受光値)とを比較して類似性が評価され、その評価結果に基づいて、類似性が最も高くなるように中間画素値パターンの中間画素値の値が決定される。 Further, in the present embodiment, when successive intermediate pixel values including the first and second intermediate pixel values are used as the intermediate pixel value pattern, the relationship between the intermediate pixel values of the intermediate pixel value pattern The expression is expressed using the light reception value of the pixel. Then, the similarity is evaluated by comparing the intermediate pixel value pattern and the light reception value pattern (light reception value of the pixel), and based on the evaluation result, the intermediate pixel value of the intermediate pixel value pattern is set so that the similarity is the highest. The value of is determined.
例えば、図11で上述したように、連続する中間画素値{b00、b10、b20}が中間画素値パターンに対応し、上式(2)で上述のように、{b00、b10、b20}間の関係式が受光値a00、a10を用いて表される。そして、中間画素値パターン{b00、b10、b20}と受光値パターン{a00、a10}を比較し、評価関数Ejで表される類似性が最も高くなるように{b00、b10、b20}の値が決定される。 For example, as described above with reference to FIG. 11, successive intermediate pixel values {b 00 , b 10 , b 20 } correspond to the intermediate pixel value pattern, and {b 00 , b 10 , b 20 } is expressed using received light values a 00 and a 10 . Then, the intermediate pixel value pattern {b 00 , b 10 , b 20 } is compared with the received light value pattern {a 00 , a 10 }, and {b 00 , so that the similarity represented by the evaluation function Ej is the highest. The values of b 10 , b 20 } are determined.
ここで、中間画素値パターンとは、水平方向(または垂直方向)に連続する中間画素値の集合である。また、受光値パターンとは、推定処理に用いる複数の低解像フレーム画像において、水平方向(または垂直方向)に連続する受光値の集合である。 Here, the intermediate pixel value pattern is a set of intermediate pixel values continuous in the horizontal direction (or vertical direction). The received light value pattern is a set of received light values that are continuous in the horizontal direction (or vertical direction) in a plurality of low-resolution frame images used for the estimation process.
このようにすれば、画素が重畳されながら画素シフトされることで取得された複数の受光値に基づいて、中間画素値を推定できる。 In this way, the intermediate pixel value can be estimated based on a plurality of received light values acquired by pixel shifting while pixels are superimposed.
より具体的には、本実施形態では、中間画素値間の関係式で表された中間画素値パターンと受光値パターンとの誤差を表す評価関数が求められる。そして、その評価関数の値が最小となるように中間画素値パターンの中間画素値の値が決定される。 More specifically, in this embodiment, an evaluation function representing an error between the intermediate pixel value pattern and the received light value pattern expressed by a relational expression between intermediate pixel values is obtained. Then, the value of the intermediate pixel value of the intermediate pixel value pattern is determined so that the value of the evaluation function is minimized.
例えば、上式(4)等で上述のように、中間画素値パターン{b00、b10、b20}が未知数b00の関数として表され、中間画素値パターン{b00、b10、b20}と受光値パターン{a00、a10}との誤差が評価関数Ejで表される。図12で上述のように、評価関数Ejの値が最小となる未知数b00=α(初期値)が求められ、求められたb00によりb00〜b20の値が決定される。 For example, the intermediate pixel value pattern {b 00 , b 10 , b 20 } is expressed as a function of the unknown b 00 as described above in the above equation (4) or the like, and the intermediate pixel value pattern {b 00 , b 10 , b 20} and the light-receiving value pattern {a 00, the error between a 10} is expressed by the evaluation function Ej. As described above in FIG. 12, evaluation value of the function Ej unknowns b 00 = α (initial value) as the minimum sought, the value of b 00 ~b 20 by b 00 obtained is determined.
このようにすれば、誤差を評価関数で表し、その評価関数の極小値に対応する中間画素値を求めることで、中間画素値の値を推定できる。例えば、上述のように最小二乗法を用いて未知数を求めることで、簡素な処理で中間画素推定の初期値を設定できる。これにより、上述の比較例(特許文献2)と比べて、初期値設定に適当な画像部分の探索を不要にできる。 In this way, the value of the intermediate pixel value can be estimated by expressing the error by the evaluation function and obtaining the intermediate pixel value corresponding to the minimum value of the evaluation function. For example, as described above, the initial value of the intermediate pixel estimation can be set with a simple process by obtaining the unknown using the least square method. Thereby, compared with the above-mentioned comparative example (patent document 2), the search of the image part suitable for initial value setting can be made unnecessary.
6.第2の推定手法
図9(B)等で上述のように、中間画素値b00、b10に設定された推定処理ブロックでは、中間画素値b20まで推定される。このb20は、中間画素値b20、b30に設定された次の推定処理ブロックでの未知数(初期変数)に当たる。本実施形態では、既に推定された中間画素値b20を利用して、次に推定する未知数b20の推定を高速化することができる。
6). Second Estimation Method As described above with reference to FIG. 9B and the like, in the estimation processing block set to the intermediate pixel values b 00 and b 10 , the intermediate pixel value b 20 is estimated. This b 20 corresponds to an unknown (initial variable) in the next estimation processing block set to the intermediate pixel values b 20 and b 30 . In the present embodiment, it is possible to speed up the estimation of the unknown b 20 to be estimated next by using the already estimated intermediate pixel value b 20 .
図17〜図21を用いて、未知数の推定を高速化できる第2の推定手法について説明する。以下では、中間画素値(b20等)の推定を例に説明するが、推定画素(v02等)についても同様に推定できる。 A second estimation method capable of speeding up the estimation of unknowns will be described with reference to FIGS. Hereinafter, the estimation of the intermediate pixel value (b 20 etc.) will be described as an example, but the estimation pixel (v 02 etc.) can be similarly estimated.
図17に示すように、重畳シフトサンプリングにより検出される水平方向の最初の行において、受光値a00、a10に注目すると下式(10)が成り立つ。
a00=b00+b10,
a10=b10+b20 ・・・ (10)
As shown in FIG. 17, in the first row in the horizontal direction detected by superposition shift sampling, the following formula (10) is established when attention is paid to the received light values a 00 and a 10 .
a 00 = b 00 + b 10 ,
a 10 = b 10 + b 20 (10)
b00を未知数として下式(11)が成り立つ。
b00=(未知数),
b10=a00−b00,
b20=b00+δi0=b00+(a10−a00) ・・・ (11)
The following equation (11) is established with b 00 as an unknown.
b 00 = (unknown number),
b 10 = a 00 −b 00 ,
b 20 = b 00 + δi 0 = b 00 + (a 10 −a 00 ) (11)
ここで、δi0は、下式(12)で表される。
δi0=a10−a00
=(b10+b20)−(b00+b10)
=b20−b00 ・・・ (12)
Here, δi 0 is expressed by the following formula (12).
δi 0 = a 10 −a 00
= (B 10 + b 20 ) − (b 00 + b 10 )
= B 20 -b 00 (12)
図18に示すように、受光値パターン{a00,a10}と中間画素値パターンφ0={b00,b10,b20}を比較する。具体的には、下式(13)に示すように、誤差の評価関数Ejを未知数b00の関数で表す。そして、図19に示すように、評価関数Ejを最小にする未知数b00=α1を探索的に求め、上式(11)により中間画素値b10、b20の値を決定する。
同様に、水平方向における次の未知数b20(初期変数)を求め、中間画素値パターンφ2={b20,b30,b40}を求める。すなわち、図20に示すように、受光値a20、a30に注目すると下式(14)が成り立つ。
a20=b20+b30,
a30=b30+b40 ・・・ (14)
Similarly, the next unknown b 20 (initial variable) in the horizontal direction is obtained, and the intermediate pixel value pattern φ2 = {b 20 , b 30 , b 40 } is obtained. That is, as shown in FIG. 20, when attention is paid to the received light values a 20 and a 30 , the following expression (14) is established.
a 20 = b 20 + b 30 ,
a 30 = b 30 + b 40 (14)
b20を未知数として下式(15)が成り立つ。
b20=(未知数),
b30=a20−b20,
b40=b20+δi2=b20+(a30−a20) ・・・ (15)
The following equation (15) is established with b 20 as an unknown.
b 20 = (unknown number),
b 30 = a 20 −b 20 ,
b 40 = b 20 + δi 2 = b 20 + (a 30 −a 20 ) (15)
ここで、δi2は1シフト離れた受光値の差分値であり、下式(16)で表される。
δi2=a30−a20
=(b30+b40)−(b20+b30)
=b40−b20 ・・・ (16)
Here, δi 2 is the difference value of the received light value one shift away, and is expressed by the following equation (16).
δi 2 = a 30 -a 20
= (B 30 + b 40) - (
= B 40 -b 20 (16)
次に、図20に示すように、受光値パターン{a20,a30}と中間画素値パターンφ2={b20,b30,b40}を比較する。 Next, as shown in FIG. 20, the received light value pattern {a 20 , a 30 } is compared with the intermediate pixel value pattern φ2 = {b 20 , b 30 , b 40 }.
具体的には、下式(17)に示すように、誤差の評価関数Ejを未知数b20の関数で表す。このとき、中間画素値b00〜b20の推定によりb20の値が既に求められていることを利用して、図21に示すように、この既に求められたb20(=α1+δi0)の近傍値の範囲を探索範囲に設定する。そして、その探索範囲内で未知数b20を変化させ、評価関数Ejが最小となるb00=α2を求める。このようにすれば、下式(17)の演算回数を格段に低減し、推定処理の高速化を図ることができる。
上記の本実施形態によれば、図22に示すように、第1の画素(第1の受光単位)と第2の画素(第2の受光単位)が隣接する画素である。そして、画素シフトにより第1、第2の画素が、第1のポジションと、第1のポジションの次の第2のポジションに順次設定される。第1、第2のポジションの第1の画素が第1の重畳領域で重畳し、第1、第2のポジションの第2の画素が第2の重畳領域で重畳する。 According to the present embodiment, as shown in FIG. 22, the first pixel (first light receiving unit) and the second pixel (second light receiving unit) are adjacent pixels. Then, the first and second pixels are sequentially set to the first position and the second position next to the first position by the pixel shift. The first pixels at the first and second positions overlap in the first overlapping region, and the second pixels at the first and second positions overlap in the second overlapping region.
このとき、第1のポジションの第1の画素から第1の重畳領域を除いた領域が、第1の受光領域である。また、第2のポジションの第1の画素から第1の重畳領域を除いた領域が、第2の受光領域である。そして、この第1、第2の受光領域の受光値である第1、第2の中間画素値(例えば、b00、b20)が推定される(b00=α1、b20=α1+δi0)。 At this time, a region obtained by removing the first overlapping region from the first pixel at the first position is the first light receiving region. Further, a region obtained by removing the first overlapping region from the first pixel at the second position is the second light receiving region. Then, the first and second intermediate pixel values (for example, b 00 , b 20 ) that are the light receiving values of the first and second light receiving regions are estimated (b 00 = α1, b 20 = α1 + δi 0 ). .
また、第1のポジションの第2の画素から第2の重畳領域を除いた領域が、第3の受光領域である。また、第2のポジションの第2の画素から第2の重畳領域を除いた領域が、第4の受光領域である。そして、この第3の受光領域の受光値である第3の中間画素値(b20)が未知数とされ、第4の受光値である第4の中間画素値(b40)が未知数(b20)を用いた関係式(b40=b20+δi2)で表される。 A region obtained by removing the second overlapping region from the second pixel at the first position is a third light receiving region. A region obtained by removing the second overlapping region from the second pixel at the second position is the fourth light receiving region. Then, the third intermediate pixel value (b 20 ) that is the light reception value of the third light receiving region is an unknown number, and the fourth intermediate pixel value (b 40 ) that is the fourth light reception value is an unknown number (b 20 ) Using a relational expression (b 40 = b 20 + δi 2 ).
そして、第3の受光領域と第2の受光領域は同じ領域であり、第2の受光領域の中間画素値として先に求めた第2の中間画素値(b20=α1+δi0)に基づいて、第3の中間画素値である未知数(b20)の探索範囲が設定される。設定された探索範囲において未知数(b20)が探索的に求められ、第3の中間画素値(b20=α2)が推定される。 The third light receiving region and the second light receiving region are the same region, and based on the second intermediate pixel value (b 20 = α1 + δi 0 ) obtained previously as the intermediate pixel value of the second light receiving region, A search range for an unknown (b 20 ) that is the third intermediate pixel value is set. In the set search range, the unknown (b 20 ) is exploratoryly calculated, and the third intermediate pixel value (b 20 = α2) is estimated.
このようにすれば、中間画素値の高速推定が可能になる。すなわち、先に求めた第2の中間画素値(b20=α1+δi0)に基づいて、次の推定処理ブロックで推定する未知数(b20)の探索範囲を設定できる。これにより、未知数(b20)を探索する範囲を限定し、探索回数を削減できる。 This makes it possible to estimate the intermediate pixel value at high speed. That is, the search range of the unknown (b 20 ) estimated in the next estimation processing block can be set based on the previously determined second intermediate pixel value (b 20 = α1 + δi 0 ). Thus, limiting the scope of searching for unknown (b 20), it can be reduced search times.
7.第3の推定手法
上述の実施形態では、未知数(b00、b20等)を1回だけ推定するが、本実施形態では、未知数を複数回推定し、その複数の推定値に基づいて未知数の値を高精度に決定してもよい。図23を用いて、複数の推定値から未知数の値を決定する第3の推定手法について説明する。以下では、中間画素値(b20)を例に説明するが、推定画素値(v02等)も同様に推定できる。
7). Third Estimation Method In the above-described embodiment, the unknown number (b 00 , b 20, etc.) is estimated only once. In this embodiment, the unknown number is estimated a plurality of times, and the unknown number is estimated based on the plurality of estimated values. The value may be determined with high accuracy. A third estimation method for determining an unknown value from a plurality of estimated values will be described with reference to FIG. Hereinafter, the intermediate pixel value (b 20 ) will be described as an example, but the estimated pixel value (v 02 and the like) can be similarly estimated.
図23に示すように、重畳シフトサンプリングにより検出される水平方向の受光値において、まず{a00,a10}から高精細な中間画素値φ0={b00,b10,b20}を求める。この中間画素値φ0={b00,b10,b20}は、上式(10)〜(13)の手法と同様の手法により求める。 As shown in FIG. 23, in the received light value in the horizontal direction detected by superposition shift sampling, first, a high-definition intermediate pixel value φ 0 = {b 00 , b 10 , b 20 } is obtained from {a 00 , a 10 }. Ask. The intermediate pixel value φ 0 = {b 00 , b 10 , b 20 } is obtained by a method similar to the methods of the above formulas (10) to (13).
次に、上式(14)〜(17)の手法と同様の手法により、{a10,a20}から高精細な中間画素値φ1={b10,b20,b30}を求める。また、上式(14)〜(17)の手法と同様の手法により、{a20,a30}から高精細な中間画素値φ2={b20,b30,b40}を求める。 Next, a high-definition intermediate pixel value φ 1 = {b 10 , b 20 , b 30 } is obtained from {a 10 , a 20 } by the same method as the above formulas (14) to (17). Further, a high-definition intermediate pixel value φ 2 = {b 20 , b 30 , b 40 } is obtained from {a 20 , a 30 } by the same method as the above formulas (14) to (17).
これら3回の推定において、中間画素値b20は、集合φ0,φ1,φ2のそれぞれに表れる。そのため、3回の推定により中間画素値b20の3つの推定値が得られることになる。本実施形態では、これら3つの推定値から最終的な中間画素値b20の値を決定(判定)する。例えば、以下の第1〜第4の決定手法により最終的な中間画素値b20の値を決定できる。 In these three estimations, the intermediate pixel value b 20 appears in each of the sets φ 0 , φ 1 , φ 2 . Therefore, three estimated values of the intermediate pixel value b 20 are obtained by three estimations. In the present embodiment, the final intermediate pixel value b 20 is determined (determined) from these three estimated values. For example, the final intermediate pixel value b 20 can be determined by the following first to fourth determination methods.
第1の決定手法では、3つのb20の候補値の平均値をb20の最終決定値とする。 In the first determination method, an average value of the three b 20 candidate values is set as the final determination value of b 20 .
第2の決定手法では、3つのb20の候補値の内、差分が最も小さい2つの値を特定し、特定された2つの値の平均値をb20の最終決定値とする。この手法によれば、値の近い2つの推定値を確からしい推定値とし、未知数の推定精度を向上できる。 In the second determination method, two values having the smallest difference among the three b 20 candidate values are specified, and an average value of the two specified values is set as a final determination value of b 20 . According to this method, two estimated values that are close to each other are assumed to be probable estimated values, and the estimation accuracy of unknowns can be improved.
第3の決定手法では、既知の多数の高解像画像サンプルの画素値を加算し、受光値と中間画素値を求める。求めた受光値と中間画素値から、受光値パターンに対して発生確率が高い中間画素値パターンを予め特定しておく。そして、その予め特定した対応関係を参照して、撮影により取得された受光値パターンに対して発生確率が高い中間画素値パターンを求める。3つの中間画素値パターンφ0,φ1,φ2のうち、求めた中間画素値パターンに最も近いものを判定し、判定した中間画素値パターンの要素であるb20を最も確からしいものとして、b20の最終決定値とする。この手法によれば、自然画像等の既知の画像を反映した画素値推定を行うことができる。 In the third determination method, pixel values of a large number of known high-resolution image samples are added to obtain a light reception value and an intermediate pixel value. An intermediate pixel value pattern having a high probability of occurrence with respect to the received light value pattern is specified in advance from the obtained received light value and intermediate pixel value. Then, an intermediate pixel value pattern having a high occurrence probability with respect to the received light value pattern acquired by photographing is obtained with reference to the correspondence relationship specified in advance. Among the three intermediate pixel value patterns φ 0 , φ 1 , φ 2 , the one closest to the obtained intermediate pixel value pattern is determined, and b 20 that is an element of the determined intermediate pixel value pattern is most probable. b Final decision value of 20 . According to this method, it is possible to perform pixel value estimation reflecting a known image such as a natural image.
第4の決定手法では、3つのb20の導出に関わる近傍観測画素値a00〜a30の差分値δi0,δi1,δi2の変化の度合いによって、最終的に採用するb20を決定する。ここで、b20の判定に適用する変化の度合いの組合せパターンをξ={δi0,δi1,δi2}とする。既知の多数の高解像画像サンプルの画素値を加算し、φ0,φ1,φ2の要素パターンと組み合わせパターンξを求める。求めた要素パターンと組み合わせパターンξから、組合せパターンξに対するb20の発生確率分布を予め求めておく。最終判定では、予め求めた発生確率分布を参照して、撮像した画像から求めた差分値のパターンξに対するb20の発生確率分布を求める。そして、その発生確率分布を用いて、推定演算により得た3つのb20の候補値のどれが最も発生する確率が高いかを判定し、b20を特定する。すなわち、変化の度合いの組合せパターンξに対するb20の発生する値の確率が予め分っているため、推定処理における組合せパターンξを用いて、推定によって得られた3つのb20の候補値の中から最も確からしいb20の値を決定できる。この手法によれば、自然画像等の既知の画像を反映した画素値推定を行うことができる。また、画素値の大きさに依らず、画素値の変化の度合いに応じた画素値推定を行うことができる。 In the fourth determination method, b 20 to be finally adopted is determined according to the degree of change in the difference values δi 0 , δi 1 , δi 2 of the neighboring observation pixel values a 00 to a 30 related to the derivation of the three b 20. To do. Here, the combination pattern of the degree of change applied to the determination of b 20 is assumed to be ξ = {δi 0 , δi 1 , δi 2 }. Pixel values of a large number of known high-resolution image samples are added to obtain element patterns and combination patterns ξ of φ 0 , φ 1 , and φ 2 . An occurrence probability distribution of b 20 for the combination pattern ξ is obtained in advance from the obtained element pattern and combination pattern ξ. In the final determination, the occurrence probability distribution of b 20 with respect to the difference value pattern ξ obtained from the captured image is obtained with reference to the occurrence probability distribution obtained in advance. Then, using the occurrence probability distribution, it is determined which of the three b 20 candidate values obtained by the estimation calculation has the highest probability of occurrence, and b 20 is specified. That is, since the probability of the value generated by b 20 with respect to the combination pattern ξ of the degree of change is known in advance, among the three b 20 candidate values obtained by estimation using the combination pattern ξ in the estimation process. The most probable value of b 20 can be determined from According to this method, it is possible to perform pixel value estimation reflecting a known image such as a natural image. Further, it is possible to perform pixel value estimation according to the degree of change in the pixel value regardless of the size of the pixel value.
上記の本実施形態によれば、図24に示すように、第1の画素(第1の受光単位)と第2の画素(第2の受光単位)が隣接する画素である。そして、画素シフトにより第1、第2の画素が、第1のポジションと、第1のポジションの次の第2のポジションに順次設定される。第1、第2のポジションの第1の画素が第1の重畳領域で重畳し、第1、第2のポジションの第2の画素が第2の重畳領域で重畳する。 According to the present embodiment, as shown in FIG. 24, the first pixel (first light receiving unit) and the second pixel (second light receiving unit) are adjacent pixels. Then, the first and second pixels are sequentially set to the first position and the second position next to the first position by the pixel shift. The first pixels at the first and second positions overlap in the first overlapping region, and the second pixels at the first and second positions overlap in the second overlapping region.
このとき、第1のポジションの第1の画素から第1の重畳領域を除いた領域が、第1の受光領域である。また、第2のポジションの第1の画素から第1の重畳領域を除いた領域が、第2の受光領域である。そして、この第1、第2の受光領域の受光値である第1、第2の中間画素値(例えば、b00、b20)を含む連続する中間画素値である第1の中間画素値パターン(φ0={b00、b10、b20})が推定される。 At this time, a region obtained by removing the first overlapping region from the first pixel at the first position is the first light receiving region. Further, a region obtained by removing the first overlapping region from the first pixel at the second position is the second light receiving region. Then, a first intermediate pixel value pattern that is a continuous intermediate pixel value including first and second intermediate pixel values (for example, b 00 , b 20 ) that are light reception values of the first and second light receiving regions. (Φ 0 = {b 00 , b 10 , b 20 }) is estimated.
第1のポジションの第2の画素から第2の重畳領域を除いた領域が、第3の受光領域である。また、第2のポジションの第2の画素から第2の重畳領域を除いた領域が、第4の受光領域である。そして、この第3、第4の受光領域の受光値である第3、第4の中間画素値(b20、b40)を含む連続する中間画素値である第2の中間画素値パターン(φ2={b20、b30、b40})が推定される。 A region obtained by removing the second overlapping region from the second pixel at the first position is the third light receiving region. A region obtained by removing the second overlapping region from the second pixel at the second position is the fourth light receiving region. Then, a second intermediate pixel value pattern (φ which is a continuous intermediate pixel value including the third and fourth intermediate pixel values (b 20 , b 40 ) which are the light receiving values of the third and fourth light receiving regions. 2 = {b 20 , b 30 , b 40 }) is estimated.
第2のポジションの第1の画素と第1のポジションの第2の画素との重畳領域が、第5の受光領域である。そして、この第5の受光領域の受光値である第5の中間画素値(b20)を含み、第1、第4の中間画素値(b00、b40)を含まない連続する中間画素値である第3の中間画素値パターン(φ1={b10、b20、b30})が推定される。 The overlapping region of the first pixel at the second position and the second pixel at the first position is the fifth light receiving region. Then, successive intermediate pixel values that include the fifth intermediate pixel value (b 20 ) that is the light reception value of the fifth light receiving region and do not include the first and fourth intermediate pixel values (b 00 , b 40 ). A third intermediate pixel value pattern (φ 1 = {b 10 , b 20 , b 30 }) is estimated.
上記の第3、第5の受光領域は、第2の受光領域と同一の受光領域である。そして、この同一の受光領域の中間画素値(b20)が、第1〜第3の中間画素値パターン(φ0、φ2、φ1)の推定により得られた第2、第3、第5の中間画素値(b20)に基づいて最終的に決定される。 The third and fifth light receiving areas are the same light receiving areas as the second light receiving areas. Then, the second, third, and second intermediate pixel values (b 20 ) of the same light receiving region are obtained by estimating the first to third intermediate pixel value patterns (φ 0 , φ 2 , φ 1 ). Finally, it is determined based on the intermediate pixel value (b 20 ) of 5.
このようにすれば、画素値の高精度推定が可能になる。すなわち、3回(複数回)推定することで求めた3つ(複数)の推定値に基づいて、最終的な画素値を決定できる。例えば、上述のように既知の画像を利用した決定手法を用いることで、より実際の画像の画素値パターンに即した画素値推定が可能になる。 In this way, it is possible to estimate the pixel value with high accuracy. That is, the final pixel value can be determined based on the three (plural) estimated values obtained by estimating three (plural times). For example, by using a determination method using a known image as described above, it is possible to estimate a pixel value in accordance with a pixel value pattern of an actual image.
8.第4の推定手法
上述の推定手法では、最小二乗法を用いて画素値を推定するが、本実施形態では、ニューラルネットワーク(非線形の推定手法)を用いて画素値を推定してもよい。図25を用いて、この第4の推定手法について説明する。以下では、中間画素値(b00等)の推定について説明するが、推定画素値(v00等)も同様に推定できる。
8). Fourth Estimation Method In the above estimation method, the pixel value is estimated using the least square method, but in the present embodiment, the pixel value may be estimated using a neural network (nonlinear estimation method). The fourth estimation method will be described with reference to FIG. In the following, the estimation of the intermediate pixel value (b 00 etc.) will be described, but the estimated pixel value (v 00 etc.) can be similarly estimated.
この推定手法では、既知の高解像画像の画素値を加算して、受光値{am0,a(m+1)0}と、この受光値に対応する中間画素値φm={bm0,b(m+1)0,b(m+2)0}を求める(mはゼロ以上の整数)。これらを学習データとして、図25に示すニューラルネットワークの学習計算により重み係数Wを予め算出しておく。具体的には、下式(18)に示す誤差評価値Eがゼロ(略ゼロを含む。広義には所定値)になるように重み係数Wを算出しておく。このニューラルネットワークの学習手法は、一般的なニューラルネットワーク学習法を用いればよい。 In this estimation method, pixel values of known high-resolution images are added, and the received light value {a m0 , a (m + 1) 0 } and the intermediate pixel value φ m = {b m0 , b corresponding to this received light value. (M + 1) 0 , b (m + 2) 0 } is obtained (m is an integer equal to or greater than zero). With these as learning data, the weighting factor W is calculated in advance by learning calculation of the neural network shown in FIG. Specifically, the weighting factor W is calculated so that the error evaluation value E shown in the following formula (18) becomes zero (including substantially zero, which is a predetermined value in a broad sense). As a learning method of the neural network, a general neural network learning method may be used.
そして、撮影画像から推定する際には、予め算出しておいた重み係数Wを用いて推定を行う。すなわち、上式(2)等で説明した手法により中間画素値の関係式を表し、未知数bm0を変化させ、下式(18)に示す誤差評価値Eが最小になるbm0(=α)を求める。
上記実施形態によれば、画素の受光値{am0,a(m+1)0}に対する中間画素値パターンφm={bm0,b(m+1)0,b(m+2)0}の対応関係が、既知の高解像フレーム画像に基づいて、画素の受光値と中間画素値パターンの類似性をあらかじめ定める先見情報として取得される。そして、取得された先見情報に基づいて、中間画素値間の関係式で表された中間画素値パターンφm={bm0,b(m+1)0,b(m+2)0}と、取得された画素の受光値{am0,a(m+1)0}との類似性が評価される。 According to the above embodiment, the correspondence relationship of the intermediate pixel value pattern φ m = {b m0 , b (m + 1) 0 , b (m + 2) 0 } with respect to the light reception value {a m0 , a (m + 1) 0 } of the pixel is Based on the known high-resolution frame image, the similarity between the light reception value of the pixel and the intermediate pixel value pattern is acquired as pre-determined information. Then, based on the acquired foresight information, the intermediate pixel value pattern φ m = {b m0 , b (m + 1) 0 , b (m + 2) 0 } represented by the relational expression between the intermediate pixel values is acquired. Similarity with the received light value {a m0 , a (m + 1) 0 } of the pixel is evaluated.
このようにすれば、既知の高解像フレーム画像に基づいて取得された先見情報に基づいて類似性が評価されるため、自然画像等の既知の画像に含まれる画像情報(例えば空間周波数特性)を反映した画素値推定を行うことができる。 In this way, the similarity is evaluated based on the foreseeing information acquired based on the known high-resolution frame image, so image information (for example, spatial frequency characteristics) included in the known image such as a natural image. Can be estimated.
例えば、上記第4の推定手法によれば、画像処理装置は、ニューラルネットワークを有する。このニューラルネットワークは、先見情報として、既知の高解像フレーム画像に基づく学習によって得られたノードの重み係数Wを用いる。そして、ニューラルネットワークは、中間画素値パターンφm={bm0,b(m+1)0,b(m+2)0}と画素の受光値{am0,a(m+1)0}を受けて、類似性の評価結果Eを出力する。このニューラルネットワークからの類似性の評価結果Eに基づいて、中間画素値パターンφm={bm0,b(m+1)0,b(m+2)0}の各中間画素値の値が決定される。 For example, according to the fourth estimation method, the image processing apparatus has a neural network. This neural network uses, as look-ahead information, a node weighting factor W obtained by learning based on a known high-resolution frame image. Then, the neural network receives the intermediate pixel value pattern φ m = {b m0 , b (m + 1) 0 , b (m + 2) 0 } and the received light value {a m0 , a (m + 1) 0 } of the pixel, and the similarity The evaluation result E is output. Based on the similarity evaluation result E from this neural network, the value of each intermediate pixel value of the intermediate pixel value pattern φ m = {b m0 , b (m + 1) 0 , b (m + 2) 0 } is determined.
このようにすれば、学習によって得られたノードの重み係数Wを用いるニューラルネットワークにより、中間画素値パターンと画素の受光値との類似性を先見情報に基づいて評価できる。 In this way, the similarity between the intermediate pixel value pattern and the light reception value of the pixel can be evaluated based on the foresight information by the neural network using the node weighting factor W obtained by learning.
また、上述の第3の推定手法によれば、受光値パターンに対して発生確率が高い中間画素値パターンを先見情報として求める(第3の決定手法)。また、変化の度合いの組合せパターンξ={δi0,δi1,δi2}に対するb20の発生確率分布を先見情報として求めてもよい(第4の決定手法)。 Further, according to the third estimation method described above, an intermediate pixel value pattern having a high probability of occurrence with respect to the received light value pattern is obtained as look-ahead information (third determination method). Further, the occurrence probability distribution of b 20 for the combination pattern ξ = {δi 0 , δi 1 , δi 2 } of the degree of change may be obtained as look-ahead information (fourth determination method).
このようにすれば、画素値の発生確率分布を先見情報として画素値を推定できる。これにより、自然画像等の既知の画像で発生確率の高い画素値を推定値にできる。 In this way, the pixel value can be estimated using the occurrence probability distribution of the pixel value as foresight information. Thereby, a pixel value having a high probability of occurrence in a known image such as a natural image can be used as an estimated value.
9.適応ノイズ低減処理
本実施形態では、推定された画素値vijに対して、画素位置に応じたノイズフィルタ処理(広義にはフィルタ処理)を行ってもよい。図26に、ノイズフィルタの構成例を示す。
9. Adaptive Noise Reduction Processing In this embodiment, noise filtering processing (filtering processing in a broad sense) corresponding to the pixel position may be performed on the estimated pixel value v ij . FIG. 26 shows a configuration example of the noise filter.
例えば、画素シフトによる重畳シフトサンプリングにより画素推定を行った場合、最終推定画素vij〜v(i+1)(j+1)の位置によってノイズの出方が異なる。そこで、図26に示すように、固定階調のベタ画像(固定階調チャート)を撮像し、その撮像画像に対して推定処理を行い、推定した異なる位置の最終推定画素vij〜v(i+1)(j+1)をノイズ比較部NHにより比較する。そして、比較した結果に基づいて、生成ノイズの大きい画素位置のノイズフィルタF1〜F4のノイズ低減効果を強くするように、フィルタ係数設定部FKによりフィルタ係数を設定する。結果的に、vij〜v(i+1)(j+1)の位置に依らずノイズの出方が同じ(ほぼ同様)になるように、フィルタ係数を設定する。このようにしてフィルタ係数を設定したフィルタ処理を行うことで、予測画素画像の画像品質を高めることができる。 For example, when pixel estimation is performed by superposition shift sampling by pixel shift, how noise is generated varies depending on the positions of the final estimated pixels v ij to v (i + 1) (j + 1) . Therefore, as shown in FIG. 26, a solid image with a fixed gradation (fixed gradation chart) is imaged, estimation processing is performed on the captured image, and final estimated pixels v ij to v (i + 1 ) at different estimated positions. ) (J + 1) is compared by the noise comparison unit NH. Then, based on the comparison result, the filter coefficient is set by the filter coefficient setting unit FK so as to enhance the noise reduction effect of the noise filters F1 to F4 at the pixel positions where the generated noise is large. As a result, the filter coefficients are set so that the noise appearance is the same (substantially the same) regardless of the position of v ij to v (i + 1) (j + 1) . By performing the filtering process in which the filter coefficient is set in this manner, the image quality of the predicted pixel image can be improved.
上記のノイズフィルタ処理によれば、推定により得られた推定画素値vij〜v(i+1)(j+1)に対して、推定画素の画素位置に応じて異なるフィルタ係数のフィルタ処理が行われる。 According to the noise filter processing described above, filter processing with different filter coefficients is performed on the estimated pixel values v ij to v (i + 1) (j + 1) obtained by the estimation according to the pixel position of the estimated pixel.
このようにすれば、推定画素の画素位置によって異なるノイズが発生する場合でも、推定画素の画素位置に応じたノイズフィルタ処理を行うことで、そのノイズを低減することができる。 In this way, even when different noise is generated depending on the pixel position of the estimated pixel, the noise can be reduced by performing the noise filter process according to the pixel position of the estimated pixel.
10.第1の補間手法
本実施形態では、画素値の推定に用いる受光値(a00等)として、重畳サンプリングにより取得された受光値をそのまま用いてもよく、補間により生成された受光値を用いてもよい。図27、図28を用いて、本実施形態における受光値の補間手法について説明する。図27には、第1の補間手法の説明図を示す。
10. First Interpolation Method In the present embodiment, as a light reception value (a 00 or the like) used for pixel value estimation, a light reception value acquired by superposition sampling may be used as it is, or a light reception value generated by interpolation is used. Also good. The received light value interpolation method in this embodiment will be described with reference to FIGS. FIG. 27 is an explanatory diagram of the first interpolation method.
なお、以下の説明で用いるフレームとは、例えば撮像素子により1つの低解像フレーム画像が撮影されるタイミングや、画像処理において1つの低解像フレーム画像が処理されるタイミングである。あるいは、画像データにおける1つの低解像フレーム画像や高解像フレーム画像も適宜フレームと呼ぶ。 Note that the frame used in the following description is, for example, the timing at which one low-resolution frame image is captured by the image sensor or the timing at which one low-resolution frame image is processed in image processing. Alternatively, one low-resolution frame image or high-resolution frame image in image data is also referred to as a frame as appropriate.
この第1の補間手法では、他のフレームで取得された受光値を用いて補間対象のフレームの受光値を補間する(時間軸補間)。 In this first interpolation method, the received light value of the interpolation target frame is interpolated using the received light value acquired in another frame (time axis interpolation).
具体的には、図27のA1に示すように、フレームfx〜fx+3において、受光値aij、a(i+1)j、a(i+1)(j+1)、ai(j+1)を順次取得する。フレームfx+4では、再び受光値aijを取得する。すなわち、A2に示すように、受光値aijで構成される低解像フレーム画像は、4フレーム毎にフレームfx、fx+4、fx+8、・・・で取得される。A3に示すように、この受光値aijの時系列データに対して時間軸補間フィルタ処理(フィルタ処理)を行う。そして、A4に示すように、この時間軸補間フィルタ処理により、全フレーム(各フレーム)において受光値a’ijが生成される。 Specifically, as shown by A1 in FIG. 27, received light values a ij , a (i + 1) j , a (i + 1) (j + 1) , and a i (j + 1) are sequentially acquired in frames fx to fx + 3. In the frame fx + 4, the light reception value a ij is acquired again. That is, as shown in A2, a low-resolution frame image composed of the received light value a ij is acquired every four frames in frames fx, fx + 4, fx + 8,. As shown in A3, a time-axis interpolation filter process (filter process) is performed on the time-series data of the received light value a ij . Then, as indicated by A4, the light reception value a ′ ij is generated in all frames (each frame) by this time axis interpolation filter processing.
このようにして、各受光値を4フレーム毎に取得し、時間軸補間フィルタ処理を行って、全フレームにおいて受光値a’ij、a’(i+1)j、a’(i+1)(j+1)、a’i(j+1)を生成する。 In this way, each received light value is acquired every four frames, and time axis interpolation filter processing is performed, and the received light values a ′ ij , a ′ (i + 1) j , a ′ (i + 1) (j + 1) , a ′ i (j + 1) is generated.
図28に、補間処理のタイミングチャート例を示す。図28のB1に示すように、各フレームにおいて、画素の設定位置を1/2画素ずつずらす。B2に示すように、各フレームでフュージョンフレームF1、F2、・・・(低解像フレーム画像。fusion-frame)を撮影する。B3に示すように、低解像動画フレームを生成し、ライブビュー表示や録画を行う。B4に示すように、受光値の時間軸補間を行い、補間後の受光値を用いて画素値推定を行い、高解像静止画フレームを生成する。B5に示すように、全受光値が補間される9フレーム目から高解像静止画や、高解像動画を出力する。 FIG. 28 shows a timing chart example of the interpolation processing. As shown in B1 of FIG. 28, in each frame, the pixel setting position is shifted by ½ pixel. As shown in B2, the fusion frames F1, F2,... (Low-resolution frame images. Fusion-frame) are photographed in each frame. As shown in B3, a low-resolution moving image frame is generated, and live view display and recording are performed. As shown in B4, time axis interpolation of the received light value is performed, pixel value estimation is performed using the received light value after interpolation, and a high-resolution still image frame is generated. As shown in B5, a high-resolution still image or a high-resolution moving image is output from the ninth frame in which all received light values are interpolated.
さて、低解像フレーム画像は画素シフトにより順次取得されるため、画素値推定に用いる受光値が全て取得されるためには4フレーム必要となる。そのため、撮影された受光値をそのまま画素値推定に用いると、異なるフレームの受光値を推定に用いることになり、被写体が動いている場合に画質が劣化する可能性がある。 Now, since the low-resolution frame images are sequentially acquired by pixel shift, four frames are required to acquire all the received light values used for pixel value estimation. Therefore, if the photographed received light value is used for pixel value estimation as it is, the received light value of a different frame is used for estimation, and the image quality may be deteriorated when the subject is moving.
この点、上記の実施形態によれば、画素シフトが各フレームfx、fx+1、・・・で行われ、画素シフトにより画素が複数のポジション(例えば4ポジション。上述の図27に示すP1〜P4)に順次設定される。そして、複数のフレーム毎(4フレーム毎)に画素が同じポジションに設定される。このようにして、時系列に各ポジションに対応した受光値aij〜a(i+1)(j+1)が取得され、取得された受光値により低解像フレーム画像が時系列に取得される(連続低解像フレーム画像)。 In this regard, according to the above-described embodiment, the pixel shift is performed in each frame fx, fx + 1,..., And the pixel is shifted to a plurality of positions (for example, four positions; P1 to P4 shown in FIG. 27 described above). Are set sequentially. Then, the pixel is set at the same position for each of a plurality of frames (every 4 frames). In this way, the received light values a ij to a (i + 1) (j + 1) corresponding to the respective positions in time series are acquired, and low resolution frame images are acquired in time series using the acquired received light values (continuous low Resolution frame image).
取得された連続低解像フレーム画像に対して、複数のポジションP1〜P4の画素の受光値a’ij〜a’(i+1)(j+1)を補間する処理が行われる。具体的には、補間対象のフレーム(例えばfx+1)の連続低解像フレーム画像での欠落したポジション(例えばP1)の画素の受光値(a’ij)が時間軸補間される。すなわち、受光値(a’ij)は、欠落したポジションと同じポジション(P1)の、補間対象のフレーム(fx+1)の前後のフレーム(fx、fx+4)の連続低解像フレーム画像での画素の受光値(aij)を用いて時間軸補間される。 A process of interpolating received light values a ′ ij to a ′ (i + 1) (j + 1) of pixels at a plurality of positions P1 to P4 is performed on the obtained continuous low-resolution frame image. Specifically, the light-receiving value (a ′ ij ) of the pixel at the missing position (for example, P1) in the continuous low-resolution frame image of the frame to be interpolated (for example, fx + 1) is time-axis interpolated. That is, the light reception value (a ′ ij ) is received by the pixels in the continuous low-resolution frame images of the frames (fx, fx + 4) before and after the interpolation target frame (fx + 1) at the same position (P1) as the missing position. Time axis interpolation is performed using the value (a ij ).
そして、時間軸補間により補間された連続低解像フレーム画像に基づいて、各フレームfx、fx+1、・・・での画素の各画素の画素値vijが推定される。 Then, based on the continuous low-resolution frame image interpolated by the time axis interpolation, the pixel value v ij of each pixel in each frame fx, fx + 1,... Is estimated.
このようにすれば、画素シフトにより受光値が取得され、取得された受光値を用いて欠落したポジションの受光値を補間し、補間後の受光値から最終推定画素値を求めることができる。これにより、各フレームに全ポジションの受光値を補間できるため、同じフレームでの受光値から画素値推定を行い、被写体が動いている場合でも画質劣化を抑止できる。 In this way, the light reception value is acquired by the pixel shift, and the light reception value at the missing position is interpolated using the acquired light reception value, and the final estimated pixel value can be obtained from the light reception value after the interpolation. As a result, since the light reception values at all positions can be interpolated in each frame, the pixel value is estimated from the light reception values in the same frame, and image quality deterioration can be suppressed even when the subject is moving.
例えば、上記の実施形態では、時間軸補間が時間軸補間フィルタにより行われる。
これにより、各ポジション(例えばP1)の受光値(fx、fx+4のaij)をそれぞれ時間軸補間し、欠落ポジション(fx+1〜fx+3のP1)の受光値(a’ij)を生成できる。
For example, in the above embodiment, the time axis interpolation is performed by the time axis interpolation filter.
As a result, the received light value (a ij of fx, fx + 4) at each position (for example, P1) is time-axis interpolated to generate the received light value (a ′ ij ) of the missing position (P1 of fx + 1 to fx + 3).
11.第2の補間手法
本実施形態では、被写体の動きに応じた適応的な受光値の補間を行ってもよい。図29、図30を用いて、適応的な受光値の補間を行う第2の補間手法について説明する。
11. Second Interpolation Method In this embodiment, adaptive received light value interpolation may be performed according to the movement of the subject. A second interpolation method for adaptively interpolating received light values will be described with reference to FIGS. 29 and 30. FIG.
第2の補間手法では、動きのない又は小さい部分(受光値)については、近隣前後のフレームの受光値を適用し、動きのある又は大きい部分については、同一フレーム内において近接受光値から重畳シフトした受光値を補間推定する。但し、パンニング(panning)などを行うと全画素に動きがあると判定されるため、事前に動き補償処理を行ってもよい。 In the second interpolation method, the received light values of the frames before and after the neighborhood are applied to a portion where there is no motion or a small amount (light reception value), and the light reception value is superimposed on the adjacent light reception value in the same frame for a portion where the motion is large or large Interpolate the shifted received light value. However, since it is determined that all pixels have movement when panning or the like is performed, motion compensation processing may be performed in advance.
以下では、図29に示される低解像画像フレームfx〜fx+4の中からフレームfx+1に着目し、このフレームの高解像静止画像を生成する場合を例に説明する。図30には、説明を簡単にするために、フレームfx+1において撮像データとして取得した受光値の一部を示す。図30では、取得した受光値を、a10(x+1)、a(−1)0(x+1)、a(−1)2(x+1)、a12(x+1)で示す。 Hereinafter, a case where a high-resolution still image of this frame is generated by focusing on the frame fx + 1 from the low-resolution image frames fx to fx + 4 shown in FIG. 29 will be described as an example. FIG. 30 shows a part of the received light value acquired as the imaging data in the frame fx + 1 for the sake of simplicity. In FIG. 30, the acquired light reception values are indicated by a 10 (x + 1), a (−1) 0 (x + 1), a (−1) 2 (x + 1), and a 12 (x + 1).
図30に示すように、例えばa10(x+1)を構成する4つの高解像画素を求めるには、このa10(x+1)を基準として画素ピッチp/2だけシフトした3つの受光値a00(x+1)、a01(x+1)、a11(x+1)を補間により求める必要がある。以下では、これらの3つの受光値を求める手法について説明する。 As shown in FIG. 30, for example a 10 (x + 1) to determine the four high resolution pixels constituting this a 10 (x + 1) pixel pitch p / 2 shifted by three light receiving values a 00, based on the It is necessary to obtain (x + 1), a 01 (x + 1), and a 11 (x + 1) by interpolation. Below, the method of calculating | requiring these three light reception values is demonstrated.
まず、図29のD1に示すように、a00(x+1)の対応位置で取得された、前後近隣フレームfx、fx+4のa00(x)とa00(x+4)を比較する。そして、その差が所定閾値δよりも小さい場合には、フレームfx、fx+4の間で、a00(x+1)に対応する画素位置を被写体(動きのある被写体の一部)が通過しなかったと判断する。この場合は、D2に示すように、a00(x+1)の値としてa00(x)またはa00(x+4)を割当てる。 First, as shown in D1 of FIG. 29, a 00 (x) and a 00 (x + 4) of the neighboring frames fx and fx + 4 acquired at the corresponding position of a 00 (x + 1) are compared. When the difference is smaller than the predetermined threshold δ, it is determined that the subject (a part of the moving subject) has not passed through the pixel position corresponding to a 00 (x + 1) between the frames fx and fx + 4. To do. In this case, as shown in D2, assign a 00 (x + 1) a as a value of 00 (x) or a 00 (x + 4).
一方、a00(x)とa00(x+4)の差が所定閾値δよりも大きい場合には、フレームfx、fx+4の間で、a00(x+1)に対応する画素位置を被写体が通過したと判断する。この場合は、D3に示すように、同一フレーム内でa00(x+1)に近接する受光値a10(x+1)とa(−1)0(x+1)を用いて補間値を求め、a00(x+1)の値とする。例えば、a10(x+1)とa(−1)0(x+1)の平均値をa00(x+1)の値とする。但し、本実施形態では、近接した2つの受光値の平均でなく、より多くの周辺の受光値を用いて補間してもよい。 On the other hand, when the difference between a 00 (x) and a 00 (x + 4) is larger than the predetermined threshold δ, it is assumed that the subject passes through the pixel position corresponding to a 00 (x + 1) between the frames fx and fx + 4. to decide. In this case, as indicated by D3, an interpolated value is obtained by using received light values a 10 (x + 1) and a (−1) 0 (x + 1) close to a 00 (x + 1) within the same frame, and a 00 ( x + 1). For example, an average value of a 10 (x + 1) and a (−1) 0 (x + 1) is set as the value of a 00 (x + 1). However, in the present embodiment, interpolation may be performed using a larger number of peripheral light reception values instead of the average of two adjacent light reception values.
上記のa00(x+1)の補間手法をまとめると、下式(19)で表される。
|a00(x)−a00(x+4)|≦δのとき、
a00(x+1)=a00(x)=a00(x+4)
|a00(x)−a00(x+4)|>δのとき、
a00(x+1)={a10(x+1)+a(−1)0(x+1)}/2
・・・ (19)
The above-described interpolation method of a 00 (x + 1) is summarized by the following equation (19).
When | a 00 (x) −a 00 (x + 4) | ≦ δ,
a 00 (x + 1) = a 00 (x) = a 00 (x + 4)
When | a 00 (x) −a 00 (x + 4) |> δ,
a 00 (x + 1) = {a 10 (x + 1) + a (−1) 0 (x + 1)} / 2
(19)
同様に、D4、D5に示すように、a11(x+1)は下式(20)で補間される。
|a11(x−2)−a11(x+2)|≦δのとき、
a11(x+1)=a11(x−2)=a11(x+2)
|a11(x−2)−a11(x+2)|>δのとき、
a11(x+1)={a10(x+1)+a12(x+1)}/2
・・・ (20)
Similarly, as indicated by D4 and D5, a 11 (x + 1) is interpolated by the following equation (20).
When | a 11 (x−2) −a 11 (x + 2) | ≦ δ,
a 11 (x + 1) = a 11 (x−2) = a 11 (x + 2)
When | a 11 (x−2) −a 11 (x + 2) |> δ,
a 11 (x + 1) = {a 10 (x + 1) + a 12 (x + 1)} / 2
(20)
D6、D7に示すように、a01(x+1)は下式(21)で補間される。
|a01(x−1)−a01(x+3)|≦δのとき、
a01(x+1)=a01(x−1)=a01(x+3)
|a01(x−1)−a01(x+3)|>δのとき、
a01(x+1)={a10(x+1)+a(−1)2(x+1)}/2
・・・ (21)
As shown in D6 and D7, a 01 (x + 1) is interpolated by the following equation (21).
When | a 01 (x−1) −a 01 (x + 3) | ≦ δ,
a 01 (x + 1) = a 01 (x−1) = a 01 (x + 3)
When | a 01 (x−1) −a 01 (x + 3) |> δ,
a 01 (x + 1) = {a 10 (x + 1) + a (−1) 2 (x + 1)} / 2
(21)
なお、閾値δは、生成される画像品質を評価し、許容されるレベルの閾値δを設定すればよい。例えば、静止画にも関わらず、ノイズにより動きがあると判定されないレベルに設定すればよい。 Note that the threshold value δ may be set by evaluating the quality of the generated image and setting an allowable level threshold value δ. For example, it may be set to a level at which it is not determined that there is movement due to noise in spite of still images.
上記第2の補間手法によれば、補間対象のフレーム(例えばfx+1)の前後のフレーム(例えばfx、fx+4)での画素の受光値の差分値(a00(x)−a00(x+4))が求められる。そして、差分値が所定の閾値δより小さい場合には、補間対象のフレーム(fx+1)での欠落したポジション(位置)の画素の受光値(a00(x+1))が、前後のフレーム(fx、fx+4)での、欠落したポジションと同じポジションの画素の受光値(a00(x)、a00(x+4))を用いて補間される。一方、差分値が所定の閾値δより大きい場合には、補間対象のフレーム(fx+1)での欠落したポジションの画素の受光値(a00(x+1))が、補間対象のフレーム(fx+1)で取得された受光値(a10(x+1)、a(−1)0(x+1))を用いて補間される。 According to the second interpolation method, the difference value (a 00 (x) −a 00 (x + 4)) of the light reception values of the pixels in the frames (for example, fx, fx + 4) before and after the frame to be interpolated (for example, fx + 1). Is required. When the difference value is smaller than the predetermined threshold δ, the received light value (a 00 (x + 1)) of the pixel at the missing position (position) in the interpolation target frame (fx + 1) is the previous or next frame (fx, Interpolation is performed using received light values (a 00 (x), a 00 (x + 4)) of pixels at the same position as the missing position at fx + 4). On the other hand, when the difference value is larger than the predetermined threshold δ, the received light value (a 00 (x + 1)) of the pixel at the missing position in the interpolation target frame (fx + 1) is acquired in the interpolation target frame (fx + 1). The received light values (a 10 (x + 1), a (−1) 0 (x + 1)) are interpolated.
このようにすれば、被写体の動きに応じて適応的に受光値を補間できる。具体的には、動きが小さい画素では、同一位置で取得された受光値を用いるため、位置的な誤差を低減できる。一方、動きが大きい画素では、同一フレームで取得された受光値を用いるため、時間的な誤差を低減できる。例えば、フレームfxとfx+4の間で、いつ被写体が通過したのかを受光値a00(x)、a00(x+4)から知ることはできない。そのため、a00(x)、a00(x+4)から補間すると、被写体の通過タイミングより前のタイミングであっても被写体の動きの影響が出てしまう。本実施形態では、被写体が通過したと判断したときには、同一フレームの受光値で補間するため、被写体の通過タイミングを正確に反映できる。 In this way, the received light value can be adaptively interpolated according to the movement of the subject. Specifically, in a pixel with small movement, the received light value acquired at the same position is used, so that a positional error can be reduced. On the other hand, in a pixel with a large motion, since a received light value acquired in the same frame is used, a temporal error can be reduced. For example, it is impossible to know from the received light values a 00 (x) and a 00 (x + 4) when the subject has passed between the frames fx and fx + 4. Therefore, when interpolating from a 00 (x) and a 00 (x + 4), the influence of the movement of the subject appears even at the timing before the passage timing of the subject. In this embodiment, when it is determined that the subject has passed, interpolation is performed using the light reception value of the same frame, so that the passage timing of the subject can be accurately reflected.
また、第2の補間手法によれば、動きの誤検出による画質劣化を抑止できる。例えば、4フレーム撮像の期間内に所定閾値δを超える単なる明るさの変化があった場合、単なる明るさの変化を被写体の動きとして誤検出する可能性がある。この点、第2の補間手法によれば、誤検出された場合であっても、フレーム内補間に切り替わるだけなので著しく画質劣化してしまうことを抑止できる。 Further, according to the second interpolation method, it is possible to suppress image quality deterioration due to erroneous detection of motion. For example, if there is a mere change in brightness exceeding a predetermined threshold δ within the four-frame imaging period, there is a possibility that a mere change in brightness is erroneously detected as the movement of the subject. In this regard, according to the second interpolation method, even if erroneous detection is performed, it is only possible to switch to intra-frame interpolation, so that it is possible to prevent the image quality from deteriorating significantly.
なお、上記第1、第2の補間手法では、動き補償による受光値の補間を行ってもよい。例えば、図31に示すように、高フレームレート(1/60秒)で撮影された連続するフュージョンフレームを4つ用い、各フュージョンフレームに対して動き補償を行って1枚の静止画(低フレームレート1/15秒で撮影した高精細画像相当)を生成してもよい。 In the first and second interpolation methods, the received light value may be interpolated by motion compensation. For example, as shown in FIG. 31, four continuous fusion frames photographed at a high frame rate (1/60 seconds) are used, and motion compensation is performed on each fusion frame to produce one still image (low frame). A high-definition image taken at a rate of 1/15 seconds) may be generated.
12.撮像装置、画像処理装置
図32、図33に、上記推定処理や時間軸補間処理を行う撮像装置と画像処理装置の詳細な構成例を示す。
12 Imaging Device and Image Processing Device FIGS. 32 and 33 show detailed configuration examples of an imaging device and an image processing device that perform the above estimation processing and time axis interpolation processing.
図32に、ズーム選択を画素シフトの前で行う撮像装置と画像処理装置の第1の詳細な構成例を示す。この撮像装置10は、低域通過光学LPF100(LPF:ローパスフィルタ)、通常サンプリング部110、広域通過光学LPF120、ズーム領域選択部130、重畳シフトサンプリング部140(読み出し制御部)を含む。画像処理装置20は、アンチエリアシングフィルタ200、フレームバッファ210(記憶部)、時間軸画素補間部220(補間処理部)、画素値推定演算部230(推定処理部)、アンチエリアシングフィルタ240を含む。
FIG. 32 shows a first detailed configuration example of an imaging apparatus and an image processing apparatus that perform zoom selection before pixel shift. The
なお、本実施形態の撮像装置及び画像処理装置はこの構成に限定されず、その構成要素の一部を省略したり、他の構成要素を追加したりする等の種々の変形実施が可能である。また、図32では、画像処理装置20が撮像装置10の外部に設けられる例を図示するが、本実施形態では、画像処理装置20が撮像装置10の内部に設けられてもよい。
The imaging apparatus and image processing apparatus of the present embodiment are not limited to this configuration, and various modifications such as omitting some of the components or adding other components are possible. . FIG. 32 illustrates an example in which the
撮像装置10は、例えばデジタルカメラや、ビデオカメラである。また、画像処理装置20は、例えば画像処理エンジン(IC)や、PC(コンピュータ)により実現される。この撮像装置10と画像処理装置20は、ワイド撮影(通常撮影、非ズーム撮影)を行う第1のモードと、デジタルズーム撮影を行う第2のモードで動作する。これらのモードは、例えば撮像装置10と画像処理装置20の図示しない制御部により設定される。なお、以下では、12Mpix(Mpix:メガピクセル)の撮像素子を用いる場合を例に説明する。
The
撮像装置10が第1のモードに設定されると、低域通過光学LPF100が設定される。この低域通過光学LPF100は、撮像素子の解像度12Mpixに対応した通過帯域をもつローパスフィルタである。そして、通常サンプリング部110が、画素シフト撮像ではなく、通常のワイド撮影により12Mpixの画像を撮影する。例えば、撮影レートは15fpsである。
When the
画像処理装置20のアンチエリアシングフィルタ200は、その画像をアンチエリアシング処理し、12Mpixの静止画像または動画を出力する。
The
一方、撮像装置10が第2のモードに設定されると、広域通過光学LPF120が設定される。この広域通過光学LPF120は、画素シフトによる高解像画像に対応した通過帯域をもつローパスフィルタである。例えば、1/2画素ピッチで画素シフトする場合、4×12=48Mpixの解像度で撮像できる通過帯域をもつ。そして、ズーム領域選択部130が読み出し領域を設定する。例えば、2倍デジタルズームの場合、12/4=3Mpixの読み出し領域を設定する。重畳シフトサンプリング部140は、画素シフト制御を行いながら、読み出し領域から受光値を読み出す。例えば、撮影レートは15×4=60fpsである。
On the other hand, when the
画像処理装置20のフレームバッファ210は、補間処理に必要な8フレームの撮像画像をバッファリングする。時間軸画素補間部220は、その8フレームの画像から受光値を補間処理する。そして、画素値推定演算部230が、補間処理された受光値から推定画素値を求め、3×4=12Mpixの画像を出力する。アンチエリアシングフィルタ240は、その画像をアンチエリアシング処理し、12Mpicsの高精細な2倍デジタルズーム画像を出力する。
The
図33に、ズーム選択を画素シフトの後で行う撮像装置と画像処理装置の第2の詳細な構成例を示す。この撮像装置10は、広域通過光学LPF120、重畳シフトサンプリング部140を含む。画像処理装置20は、フレームバッファ210、時間軸画素補間部220、画素値推定演算部230、アンチエリアシングフィルタ240、ズーム領域選択部250を含む。
FIG. 33 shows a second detailed configuration example of an imaging apparatus and an image processing apparatus that perform zoom selection after pixel shift. The
この撮像装置10と画像処理装置20は、推定処理による高精細化後にデジタルズームを行う。具体的には、広域通過光学LPF120は、4×12=48Mpixの解像度で撮像できる通過帯域をもつ。重畳シフトサンプリング部140は、画素シフト制御を行いながら、撮像素子の画素数12Mpixで撮影を行う。例えば、撮影レートは60fpsである。
The
そして、フレームバッファ210が8フレームの画像をバッファリングし、時間軸画素補間部220が受光値を補間処理し、画素値推定演算部230が推定画素値を求め、4×12=48Mpixの画像を出力する。ズーム領域選択部250は、ズーム倍率に応じてズーム領域を設定し、その領域の画像をトリミングする。例えば、ズームなしの場合、48Mpixの画像をそのまま出力し、2倍デジタルズームの場合、48/4=12Mpixの画像をトリミングする。アンチエリアシングフィルタ240は、ズームなしの場合、ダウンサンプリングにより12Mpixの画像を出力し、2倍デジタルズームの場合、12Mpicsの高精細な2倍デジタルズーム画像を出力する。
Then, the
13.第5の推定手法
上述の第1〜第4の推定手法では、水平方向と垂直方向に画素シフトを行って画素値を推定したが、本実施形態では、斜め方向に画素シフトを行って画素値を推定してもよい。図34(A)〜図38を用いて、この第5の推定手法について説明する。
13. Fifth Estimation Method In the first to fourth estimation methods described above, pixel values are estimated by performing pixel shift in the horizontal direction and vertical direction. However, in this embodiment, pixel values are obtained by performing pixel shift in an oblique direction. May be estimated. The fifth estimation method will be described with reference to FIGS.
図34(A)に示すように、画素を斜め方向にp/2ピッチでシフトしながら受光値ak(kは0以上の整数)を取得する。ここで、斜め方向は、画素配列の水平方向及び垂直方向に交差する方向であり、例えば矩形の画素の対角線に沿った方向である。 As shown in FIG. 34A, the received light value a k (k is an integer equal to or greater than 0) is acquired while shifting the pixels in the diagonal direction at a p / 2 pitch. Here, the diagonal direction is a direction intersecting the horizontal direction and the vertical direction of the pixel array, for example, a direction along a diagonal line of a rectangular pixel.
このように斜め方向に画素シフトが行われる場合に、斜め方向の中間画素値bk(3画素加算値)の関係式を求める。図34(B)に示すように、シフト順に受光値をa0、a1、a2とし、推定画素の3画素が加算されるように中間画素値b0〜b2、b1’、b2’の受光領域を定義する。このとき、図35に示すように、下式(22)が成り立つ。
b0=(未知数),
b1’=b0+δ0=b0+(a1−a0),
b2’=b1+δ1=b1+(a2−a1) ・・・ (22)
When the pixel shift is performed in the diagonal direction as described above, a relational expression of the intermediate pixel value b k (three-pixel addition value) in the diagonal direction is obtained. As shown in FIG. 34B, the received light values are set to a 0 , a 1 , a 2 in the order of shift, and intermediate pixel values b 0 to b 2 , b 1 ′, b are added so that three estimated pixels are added. Define a 2 'light receiving area. At this time, as shown in FIG. 35, the following expression (22) is established.
b 0 = (unknown number),
b 1 ′ = b 0 + δ 0 = b 0 + (a 1 −a 0 ),
b 2 ′ = b 1 + δ 1 = b 1 + (a 2 −a 1 ) (22)
b1とb1’の受光領域の重なり部分が多いため、b1≒b1’と仮定すると、下式(23)が成り立つ。
b0=(未知数),
b1=b0+δ0=b0+(a1−a0),
b2=b1+δ1=b1+(a2−a1) ・・・ (23)
'Because the overlapping portion of the light receiving region of many, b 1 ≒ b 1' b 1 and b 1 Assuming that the following equation (23) holds.
b 0 = (unknown number),
b 1 = b 0 + δ 0 = b 0 + (a 1 −a 0 ),
b 2 = b 1 + δ 1 = b 1 + (a 2 −a 1 ) (23)
このように、b0を未知数とし、中間画素値b1、b2をb0の関数として求めることができる。ここで、δ0、δ1は、1シフト離れたサンプリング画素値の差分値である。 Thus, b 0 can be an unknown and the intermediate pixel values b 1 and b 2 can be obtained as a function of b 0 . Here, δ 0 and δ 1 are the difference values of the sampling pixel values separated by one shift.
次に、斜め方向における未知数b0を求め、中間画素値を求める。図36に示すように、重畳シフトサンプリングにより検出されるサンプリング画素値によるパターン{ak}と中間画素値{bk}によるパターンを比較する。そして、図37に示すように、その誤差Eが最小になる状態をもって未知数b0を導出し設定する。 Next, an unknown b 0 in the oblique direction is obtained, and an intermediate pixel value is obtained. As shown in FIG. 36, a pattern {a k } based on sampling pixel values detected by superposition shift sampling and a pattern based on intermediate pixel values {b k } are compared. Then, as shown in FIG. 37, the unknown b 0 is derived and set with a state where the error E is minimized.
具体的には、下式(24)により誤差Ekを求める。そして、このEkを最小にするような未知数b0(=γ)を求め、b0をその値に設定する。
b0の値が推定できれば、上式(23)にb0を代入することでb1,b2は自ずと決まる。これを他の画素に対しても求めれば、全ての中間画素値{bk}を導出することができる。 If the value of b 0 can be estimated, b 1 and b 2 are naturally determined by substituting b 0 into the above equation (23). If this is obtained for other pixels, all intermediate pixel values {b k } can be derived.
図38に示すように、最終的な推定画素値vkは、斜め方向に画素シフトされた画素の重畳領域の画素値である。この推定画素値について下式(25)が成り立ち、上述の受光値akと中間画素値bkを代入することで推定画素値vkが求められる。
v0=a0−b0,
v1=a1−b1 ・・・ (25)
As shown in FIG. 38, the final estimated pixel value v k is the pixel value of the overlapping region of the pixels shifted in the diagonal direction. The following equation (25) is established for the estimated pixel value, and the estimated pixel value v k is obtained by substituting the light reception value a k and the intermediate pixel value b k described above.
v 0 = a 0 −b 0 ,
v 1 = a 1 -b 1 (25)
上記実施形態によれば、画素が斜め方向に重畳されながら画素シフトされて低解像フレーム画像(受光値akで構成される画像)が取得される。そして、その斜め方向に画素シフトされた画素の重畳領域の受光値vkが、推定画素値として推定される。 According to the above embodiment, the pixels are shifted while being superimposed in an oblique direction, and a low-resolution frame image (an image composed of the light reception value ak ) is acquired. Then, the light reception value v k of the overlapping region of the pixels shifted in the diagonal direction is estimated as the estimated pixel value.
このようにすれば、機械的な画素シフトを1方向のみにすることができ、水平方向と垂直方向に画素シフトを行う場合よりも画素シフトを容易に行うことができる。 In this way, the mechanical pixel shift can be performed only in one direction, and the pixel shift can be performed more easily than when performing the pixel shift in the horizontal direction and the vertical direction.
14.第6の推定手法(重み付け加算)
上述の推定手法では、フィルタ透過率の重み付けが無い場合(r=1)を例に説明したが、本実施形態では、重み付けされた(r>1)透過率の受光値から推定画素値を求めてもよい。図39〜図44を用いて、この第6の推定手法について説明する。
14 Sixth estimation method (weighted addition)
In the above estimation method, the case where there is no weighting of the filter transmittance (r = 1) has been described as an example. However, in this embodiment, the estimated pixel value is obtained from the light receiving value of the weighted (r> 1) transmittance. May be. The sixth estimation method will be described with reference to FIGS. 39 to 44.
図1に示すフィルタcf1〜cf4の透過率の重み係数をc1、c2、c3、c4とする。c1=1とすると、重み係数は下式(26)に示す比率関係のルールをとる(rは、r>1の実数)。
c1=1,c2=1/r,c3=1/r,c4=1/r2 ・・・ (26)
The weighting coefficients of the transmittance of the filter cf1~cf4 shown in FIG. 1 and c 1, c 2, c 3 ,
c 1 = 1, c 2 = 1 / r, c 3 = 1 / r, c 4 = 1 / r 2 (26)
以下では、説明を簡単にするために、r=2とおき、下式(27)とする。
c1=1、c2=1/2、c3=1/2、c4=1/4 ・・・ (27)
In the following, in order to simplify the explanation, r = 2 is assumed and the following equation (27) is assumed.
c 1 = 1, c 2 = 1/2, c 3 = 1/2, c 4 = ¼ (27)
図39に示すように、重畳シフトサンプリングにより検出される水平方向の最初の行に注目し、シフト順に画素値をa00、a10、a20とする。このとき、下式(28)が成り立つ。
a00=c1v00+c2v01+c3v10+c4v11
a10=c1v10+c2v11+c3v20+c4v21 ・・・ (28)
As shown in FIG. 39, attention is paid to the first horizontal row detected by superposition shift sampling, and pixel values are set to a 00 , a 10 , and a 20 in the order of shift. At this time, the following expression (28) holds.
a 00 = c 1 v 00 + c 2 v 01 + c 3 v 10 + c 4 v 11
a 10 = c 1 v 10 + c 2 v 11 + c 3
また、下式(29)に示すようにb00、b10、b20を定義し、上式(27)を代入する。
b00=c1v00+c2v01=v00+(1/2)v01
b10=c1v10+c2v11=v10+(1/2)v11
b20=c1v20+c2v21=v20+(1/2)v21 ・・・ (29)
Further, b 00 , b 10 , and b 20 are defined as shown in the following formula (29), and the above formula (27) is substituted.
b 00 = c 1 v 00 + c 2 v 01 = v 00 + (1/2) v 01
b 10 = c 1 v 10 + c 2 v 11 = v 10 + (1/2) v 11
b 20 = c 1 v 20 + c 2 v 21 =
次に、上式(27)、(29)を用いて上式(28)を変形すると、下式(30)が成り立つ。
a00=v00+(1/2)v01+(1/2)v10+(1/4)v11
=b00+(1/2)b10
a10=v10+(1/2)v11+(1/2)v20+(1/4)v21
=b10+(1/2)b20 ・・・ (30)
Next, when the above equation (28) is transformed using the above equations (27) and (29), the following equation (30) is established.
a 00 = v 00 + (1/2) v 01 + (1/2) v 10 + (1/4) v 11
= B 00 + (1/2) b 10
a 10 = v 10 + (1/2 ) v 11 + (1/2)
= B 10 + (1/2) b 20 (30)
上式(30)において、a00、a10に所定の係数(所定の重み係数)を掛けて差分δi0を取り、上式(29)を使って変形すると、下式(31)が成り立つ。
δi0=a10−2a00
=(1/2)v20+(1/4)v21−(2v00+v01)
=(1/2)b20−2b00 ・・・ (31)
In the above equation (30), when a 00 and a 10 are multiplied by a predetermined coefficient (predetermined weighting coefficient) to obtain a difference δi 0 and transformed using the above equation (29), the following equation (31) is established.
δi 0 = a 10 -2a 00
= (1/2) v 20 + ( 1/4) v 21 - (2v 00 + v 01)
= (1/2) b 20 -2b 00 (31)
b00を未知数とすると、下式(32)に示すように、中間画素値b10、b20をb00の関数として求めることができる。
b00=(未知数),
b10=2(a00−b00),
b20=4b00+2δi0=4b00+2(a10−2a00) ・・・(32)
If b 00 is an unknown, the intermediate pixel values b 10 and b 20 can be obtained as a function of b 00 as shown in the following equation (32).
b 00 = (unknown number),
b 10 = 2 (a 00 −b 00 ),
b 20 = 4b 00 + 2δi 0 = 4b 00 +2 (a 10 −2a 00 ) (32)
このように、b00を未知数(初期変数)として高精細な中間画素値{b00,b10,b20}の組合せパターンが求められる。同様にして、2行目、3行目においてもb01、b02を未知数として中間画素値{b01,b11,b21}、{b02,b12,b22}の組合せパターンが求められる。 In this way, a high-definition combination pattern of intermediate pixel values {b 00 , b 10 , b 20 } is obtained with b 00 as an unknown (initial variable). Similarly, combination patterns of intermediate pixel values {b 01 , b 11 , b 21 }, {b 02 , b 12 , b 22 } are obtained with b 01 and b 02 as unknowns in the second and third lines. It is done.
次に、未知数b00を求める手法について説明する。図40に示すように、重み付け重畳シフトサンプリングにより検出されるサンプリング画素値によるパターン{a00,a10}と中間画素値{b00,b10,b20}によるパターンを比較する。そして、その誤差Eが最小になる未知数b00を導出し、中間画素値b00として設定する。 Next, a description will be given of a method of obtaining the unknown b 00. As shown in FIG. 40, a pattern {a 00 , a 10 } based on sampling pixel values detected by weighted superposition shift sampling is compared with a pattern based on intermediate pixel values {b 00 , b 10 , b 20 }. Then, an unknown number b 00 that minimizes the error E is derived and set as the intermediate pixel value b 00 .
このとき、上式(30)に示すように、サンプリング画素値{a00,a10}は、中間画素値{b00,b10,b20}の異なる重み付けによる隣接値の加算値となる。そのため、単純にこれらを比較しても正しい推定値が得られない。そこで、図40に示すように、中間画素値に重み付けをして比較を行う。具体的には、中間画素値{bij,b(i+1)j}の重み付けが、c3=c1/2、c4=c2/2であることを利用すると、下式(33)が成り立つことが分かる。
aij=bij+(1/2)b(i+1)j ・・・ (33)
At this time, as shown in the above equation (30), the sampling pixel values {a 00 , a 10 } are added values of adjacent values by different weighting of the intermediate pixel values {b 00 , b 10 , b 20 }. Therefore, even if these are simply compared, a correct estimated value cannot be obtained. Therefore, as shown in FIG. 40, the comparison is performed by weighting the intermediate pixel values. Specifically, the intermediate pixel values weighted {b ij, b (i + 1) j} is, the use of it is c 3 = c 1/2, c 4 =
a ij = b ij + (1/2) b (i + 1) j (33)
この上式(33)による重み付けを考慮すると、下式(34)に示す評価関数Ejが求められる。そして、この評価関数Ejにより、パターン{a00,a10}と中間推定画素値{b00,b10,b20}の類似性評価を行う。
上式(32)を用いると、評価関数Ejは、b00を初期変数とした関数で表される。したがって、図41に示すように、Ejを最小にする未知数b00(=α)を求め、b00の値を決定できる。そして、推定したb00の値を上式(32)に代入し、b10,b20が求められる。なお、b00が取り得る値の範囲は0≦b00≦a00であるので、この範囲にて評価関数Ejの最小値を求めればよい。同様に、2行目、3行目においても、中間画素値{b01,b11,b21}、{b02,b12,b22}の組合せパターンをb01,b02を未知数として求められる。 When the above equation (32) is used, the evaluation function Ej is represented by a function having b 00 as an initial variable. Therefore, as shown in FIG. 41, the unknown b 00 (= α) that minimizes Ej is obtained, and the value of b 00 can be determined. Then, the estimated value of b 00 is substituted into the above equation (32) to obtain b 10 and b 20 . Since the range of values that b 00 can take is 0 ≦ b 00 ≦ a 00 , the minimum value of the evaluation function Ej may be obtained within this range. Similarly, in the second and third lines, a combination pattern of intermediate pixel values {b 01 , b 11 , b 21 } and {b 02 , b 12 , b 22 } is obtained with b 01 and b 02 as unknowns. It is done.
次に、求めた中間画素値bijを用いて最終推定画素値vijを求める手法について説明する。以下では、図13(A)、図13(B)に示す左端垂直列(i=0列)を例に説明する。図42に示すように、中間画素値{b01,b01,b02}と最終推定画素値{v00,v01,v02}の関係は、下式(35)で表される。
b00=c1v00+c2v01=v00+(1/2)v01,
b01=c1v01+c2v02=v01+(1/2)v02 ・・・(35)
Next, a method for obtaining the final estimated pixel value v ij using the obtained intermediate pixel value b ij will be described. In the following description, the leftmost vertical column (i = 0 column) shown in FIGS. 13A and 13B will be described as an example. As shown in FIG. 42, the relationship between the intermediate pixel values {b 01 , b 01 , b 02 } and the final estimated pixel values {v 00 , v 01 , v 02 } is expressed by the following equation (35).
b 00 = c 1 v 00 + c 2 v 01 = v 00 + (1/2) v 01 ,
b 01 = c 1 v 01 + c 2 v 02 = v 01 + (1/2) v 02 (35)
b00、b01に所定の係数を掛けて差分δj0を求めると、下式(36)が成り立つ。
δj0=b01−2b00
=(v01+(1/2)v02)−(2v00+v01)
=(1/2)v02−2v00 ・・・ (36)
When the difference δj 0 is obtained by multiplying b 00 and b 01 by a predetermined coefficient, the following equation (36) is established.
δj 0 = b 01 -2b 00
= (V 01 + (1/2) v 02 ) − (2v 00 + v 01 )
= (1/2) v 02 -2v 00 (36)
v00を未知数(初期変数)とすると、上式(35)、(36)を用いて、最終推定画素値v01、v02がv00の関数として求められる。その関数を下式(37)に示す。
v00=(未知数),
v01=2(b00−v00),
v02=4v00+2δj0=4v00+2(b01−2b00) ・・・(37)
If v 00 is an unknown (initial variable), the final estimated pixel values v 01 and v 02 are obtained as a function of v 00 using the above equations (35) and (36). The function is shown in the following formula (37).
v 00 = (unknown number),
v 01 = 2 (b 00 −v 00 ),
v 02 = 4v 00 + 2δj 0 = 4v 00 +2 (b 01 -2b 00 ) (37)
上式(37)の推定画素値パターン{v00,v01,v02}と、中間画素値パターン{b00,b01}を比較し、その誤差Eiが最小になる未知数v00を導出する。このとき、最終推定画素値{vij,v(i+1)j}の重み付けが、c2=c1/2であることを利用すると、下式(38)が成り立つ。
bij=vij+(1/2)vi(j+1) ・・・ (38)
The estimated pixel value pattern {v 00 , v 01 , v 02 } of the above equation (37) is compared with the intermediate pixel value pattern {b 00 , b 01 }, and an unknown v 00 that minimizes the error Ei is derived. . At this time, using the fact that the weight of the final estimated pixel value {v ij , v (i + 1) j } is c 2 = c 1/2 , the following equation (38) is established.
b ij = v ij + (1/2) v i (j + 1) (38)
図43に示すように、上式(38)に示す重み付けを考慮して、パターンの比較を行う。具体的には、下式(39)に示す評価関数Eiを求める。
そして、図44に示すように、評価関数Eiを最小にする未知数v00(=β)を求め、求めたv00を上式(37)に代入して最終推定画素値v01、v02を求める。同様に、2列目においても、v10を未知数として最終推定画素値{v10,v11,v12}の組合せパターンを求める。 Then, as shown in FIG. 44, an unknown number v 00 (= β) that minimizes the evaluation function Ei is obtained, and the obtained v 00 is substituted into the above equation (37) to obtain the final estimated pixel values v 01 and v 02 . Ask. Similarly, also in the second column, a combination pattern of final estimated pixel values {v 10 , v 11 , v 12 } is obtained with v 10 as an unknown.
なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語(受光値、画素シフト等)と共に記載された用語(画素値、重畳シフトサンプリング等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また撮像素子、読み出し制御部、推定処理部、画像出力部、撮像装置等の構成、動作も本実施形態で説明したものに限定に限定されず、種々の変形実施が可能である。 Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term (pixel value, superposition shift sampling, etc.) described together with a different term (light reception value, pixel shift, etc.) in a broader sense or the same meaning at least once in the specification or drawing is used anywhere in the specification or drawing. Can also be replaced by their different terms. Further, the configurations and operations of the image sensor, the readout control unit, the estimation processing unit, the image output unit, the imaging device, and the like are not limited to those described in the present embodiment, and various modifications can be made.
10 撮像装置、20 画像処理装置、100 低域通過光学LPF、
110 通常サンプリング部、120 広域通過光学LPF、
130 ズーム領域選択部、140 重畳シフトサンプリング部、
200 アンチエリアシングフィルタ、210 フレームバッファ、
220 時間軸画素補間部、230 画素値推定演算部、
240 アンチエリアシングフィルタ、250 ズーム領域選択部、
410 レンズ、420 撮像素子、
Bk00 推定処理ブロック、CF フィルタ部、Ej 評価関数、
F1〜F4 ノイズフィルタ、FK フィルタ係数設定部、NH ノイズ比較部、
P1〜P4 ポジション、PD1〜PD4 受光素子、
W ニューラルネットワークの係数、
aij 受光値、b0 未知数、bij 中間画素値、cf1〜cf4 フィルタ、
fx フレーム、NF NDフィルタ、p 画素ピッチ、p/2 シフト量、
v00 未知数、vij 推定画素値、δii 差分値、φi 中間画素値パターン
10 imaging device, 20 image processing device, 100 low-pass optical LPF,
110 Normal sampling unit, 120 Wide-pass optical LPF,
130 zoom region selection unit, 140 superposition shift sampling unit,
200 anti-aliasing filter, 210 frame buffer,
220 time axis pixel interpolation unit, 230 pixel value estimation calculation unit,
240 anti-aliasing filter, 250 zoom area selection unit,
410 lens, 420 imaging device,
Bk 00 estimation processing block, CF filter unit, Ej evaluation function,
F1-F4 noise filter, FK filter coefficient setting unit, NH noise comparison unit,
P1 to P4 positions, PD1 to PD4 light receiving elements,
W Neural network coefficients,
a ij light reception value, b 0 unknown, b ij intermediate pixel value, cf1 to cf4 filter,
fx frame, NF ND filter, p pixel pitch, p / 2 shift amount,
v 00 unknown, v ij estimated pixel value, δi i difference value, φ i intermediate pixel value pattern
Claims (11)
前記複数の受光素子の受光値を読み出して低解像フレーム画像を取得する読み出し制御部と、
前記低解像フレーム画像に基づいて、前記低解像フレーム画像の画素ピッチよりも小さい画素ピッチの推定画素値を推定する推定演算部と、
前記推定画素値に基づいて、前記低解像フレーム画像よりも高解像度の高解像フレーム画像を出力する画像出力部と、
を含み、
前記フィルタ部には、
1つの受光素子に対応するフィルタとして、異なる色の複数のフィルタが配列されることを特徴とする撮像装置。 An image sensor having a plurality of light receiving elements and a filter unit;
A readout control unit that reads out light reception values of the plurality of light receiving elements to obtain a low-resolution frame image;
Based on the low-resolution frame image, an estimation calculation unit that estimates an estimated pixel value having a pixel pitch smaller than the pixel pitch of the low-resolution frame image;
An image output unit that outputs a high-resolution frame image having a higher resolution than the low-resolution frame image based on the estimated pixel value;
Including
In the filter part,
An image pickup apparatus, wherein a plurality of filters of different colors are arranged as filters corresponding to one light receiving element.
前記複数のフィルタの各フィルタは、
重み付けされた透過率を有し、
前記推定演算部は、
前記重み付けされた透過率により得られた受光値に基づいて前記推定を行うことを特徴とする撮像装置。 In claim 1,
Each filter of the plurality of filters is
Having weighted transmission,
The estimation calculation unit includes:
An imaging apparatus, wherein the estimation is performed based on a light reception value obtained by the weighted transmittance.
前記フィルタ部は、
前記1つの受光素子に対応するフィルタとして、ベイヤ配列のフィルタを有し、
前記ベイヤ配列のフィルタは、
第1緑色フィルタと、赤色フィルタと、青色フィルタと、第2緑色フィルタを有し、
前記赤フィルタと前記青色フィルタの透過率は、
前記第1緑色フィルタの透過率に対して1/r(rは1以上の実数)であり、
前記第2緑色フィルタの透過率は、
前記第1緑色フィルタの透過率に対して1/r2であることを特徴とする撮像装置。 In claim 2,
The filter unit is
As a filter corresponding to the one light receiving element, it has a Bayer array filter,
The Bayer array filter is:
A first green filter, a red filter, a blue filter, and a second green filter;
The transmittance of the red filter and the blue filter is
1 / r (r is a real number of 1 or more) with respect to the transmittance of the first green filter,
The transmittance of the second green filter is
An image pickup apparatus having a transmittance of 1 / r 2 with respect to the transmittance of the first green filter.
前記フィルタ部は、
カラーフィルタと、
前記重み付けされた透過率を有するND(Neutral Density)フィルタと、
を有することを特徴とする撮像装置。 In claim 2,
The filter unit is
A color filter,
An ND (Neutral Density) filter having the weighted transmittance;
An imaging device comprising:
前記読み出し制御部は、
画素を重畳しながら順次画素シフトさせて被写体像をサンプリングし、前記画素シフトしながら前記撮像素子により各撮像動作を行い、前記各撮像動作により得られた前記画素の受光値を低解像フレーム画像として取得することを特徴とする撮像装置。 In any one of Claims 1 thru | or 4,
The read control unit
The subject image is sampled by sequentially shifting the pixel while superimposing the pixels, and each imaging operation is performed by the imaging element while the pixel is shifted, and the light reception value of the pixel obtained by each imaging operation is a low resolution frame image An imaging device characterized by being acquired as follows.
前記読み出し制御部は、
前記画素を、第1のポジションと、前記第1のポジションの次の第2のポジションに順次設定して前記画素シフトを行い、
前記推定演算部は、
前記第1のポジションの画素と前記第2のポジションの画素が重畳する場合に、前記第1のポジションの画素の受光値と前記第2のポジションの画素の受光値の差分値を求め、前記差分値に基づいて前記推定画素値を推定することを特徴とする撮像装置。 In claim 5,
The read control unit
The pixel shift is performed by sequentially setting the pixels to a first position and a second position next to the first position,
The estimation calculation unit includes:
When the pixel at the first position and the pixel at the second position overlap, the difference value between the light reception value of the pixel at the first position and the light reception value of the pixel at the second position is obtained, and the difference An image pickup apparatus that estimates the estimated pixel value based on a value.
前記推定演算部は、
前記第1のポジションの画素から重畳領域を除いた第1の受光領域の受光値である第1の中間画素値と、前記第2のポジションの画素から前記重畳領域を除いた第2の受光領域の受光値である第2の中間画素値との関係式を、前記差分値を用いて表し、
前記関係式を用いて前記第1、第2の中間画素値を推定し、推定した前記第1の中間画素値を用いて前記推定画素値を求めることを特徴とする撮像装置。 In claim 6,
The estimation calculation unit includes:
A first intermediate pixel value that is a light receiving value of a first light receiving region obtained by removing a superimposed region from the pixel at the first position, and a second light receiving region obtained by removing the superimposed region from the pixel at the second position. The relational expression with the second intermediate pixel value that is the received light value is expressed using the difference value,
An imaging apparatus, wherein the first and second intermediate pixel values are estimated using the relational expression, and the estimated pixel value is obtained using the estimated first intermediate pixel value.
前記推定演算部は、
前記第1、第2の中間画素値を含む連続する中間画素値を中間画素値パターンとする場合に、前記中間画素値パターンの中間画素値間の関係式を、前記画素の受光値を用いて表し、
中間画素値間の関係式で表された前記中間画素値パターンと前記画素の受光値とを比較して類似性を評価し、
前記類似性の評価結果に基づいて、前記類似性が最も高くなるように、前記中間画素値パターンに含まれる各中間画素値を決定することを特徴とする撮像装置。 In claim 7,
The estimation calculation unit includes:
When successive intermediate pixel values including the first and second intermediate pixel values are used as an intermediate pixel value pattern, a relational expression between the intermediate pixel values of the intermediate pixel value pattern is obtained using a light reception value of the pixel. Represent,
The intermediate pixel value pattern represented by the relational expression between the intermediate pixel values is compared with the light reception value of the pixel to evaluate similarity,
An image pickup apparatus that determines each intermediate pixel value included in the intermediate pixel value pattern based on the similarity evaluation result so that the similarity becomes the highest.
前記推定演算部は、
中間画素値間の関係式で表された前記中間画素値パターンと前記画素の受光値との誤差を表す評価関数を求め、前記評価関数の値が最小となるように、前記中間画素値パターンに含まれる各中間画素値を決定することを特徴とする撮像装置。 In claim 8,
The estimation calculation unit includes:
An evaluation function representing an error between the intermediate pixel value pattern represented by the relational expression between the intermediate pixel values and the light reception value of the pixel is obtained, and the intermediate pixel value pattern is set so as to minimize the value of the evaluation function. An imaging apparatus characterized by determining each included intermediate pixel value.
前記フィルタ部に、1つの受光素子に対応するフィルタとして、異なる色の複数のフィルタが配列される場合に、前記複数の受光素子の受光値を読み出して低解像フレーム画像を取得し、
前記低解像フレーム画像に基づいて、前記低解像フレーム画像の画素ピッチよりも小さい画素ピッチの推定画素値を推定し、
前記推定画素値に基づいて、前記低解像フレーム画像よりも高解像度の高解像フレーム画像を出力することを特徴とする画像生成方法。 An image generation method in an image pickup apparatus in which an image pickup element includes a plurality of light receiving elements and a filter unit,
When a plurality of filters of different colors are arranged as filters corresponding to one light receiving element in the filter unit, a light reception value of the plurality of light receiving elements is read to obtain a low resolution frame image,
Based on the low resolution frame image, estimate an estimated pixel value of a pixel pitch smaller than the pixel pitch of the low resolution frame image,
An image generation method comprising: outputting a high-resolution frame image having a higher resolution than the low-resolution frame image based on the estimated pixel value.
画素を重畳しながら順次画素シフトさせて被写体像をサンプリングし、前記画素シフトしながら前記撮像素子により各撮像動作を行い、前記各撮像動作により得られた前記画素の受光値を低解像フレーム画像として取得し、
前記画素を、第1のポジションと、前記第1のポジションの次の第2のポジションに順次設定して前記画素シフトを行い、
前記第1のポジションの画素と前記第2のポジションの画素が重畳する場合に、前記第1のポジションの画素の受光値と前記第2のポジションの画素の受光値の差分値を求め、前記差分値に基づいて前記推定画素値を推定することを特徴とする画像生成方法。 In claim 10,
The subject image is sampled by sequentially shifting the pixel while superimposing the pixels, and each imaging operation is performed by the imaging element while the pixel is shifted, and the light reception value of the pixel obtained by each imaging operation is a low resolution frame image Get as
The pixel shift is performed by sequentially setting the pixels to a first position and a second position next to the first position,
When the pixel at the first position and the pixel at the second position overlap, the difference value between the light reception value of the pixel at the first position and the light reception value of the pixel at the second position is obtained, and the difference An image generation method, wherein the estimated pixel value is estimated based on a value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010292176A JP2012142676A (en) | 2010-12-28 | 2010-12-28 | Imaging device and image generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010292176A JP2012142676A (en) | 2010-12-28 | 2010-12-28 | Imaging device and image generation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012142676A true JP2012142676A (en) | 2012-07-26 |
Family
ID=46678547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010292176A Withdrawn JP2012142676A (en) | 2010-12-28 | 2010-12-28 | Imaging device and image generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012142676A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015106722A (en) * | 2013-11-28 | 2015-06-08 | 株式会社ニコン | Imaging element and imaging apparatus |
JP2018084982A (en) * | 2016-11-24 | 2018-05-31 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
-
2010
- 2010-12-28 JP JP2010292176A patent/JP2012142676A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015106722A (en) * | 2013-11-28 | 2015-06-08 | 株式会社ニコン | Imaging element and imaging apparatus |
JP2018084982A (en) * | 2016-11-24 | 2018-05-31 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5341010B2 (en) | Image processing apparatus, imaging apparatus, program, and image processing method | |
JP5220777B2 (en) | Image processing apparatus, imaging apparatus, program, and image processing method | |
US8885067B2 (en) | Multocular image pickup apparatus and multocular image pickup method | |
JP3996631B2 (en) | Image processing method, image recording method, image processing apparatus, and image file format | |
JP5306563B2 (en) | Imaging apparatus and image generation method | |
WO2011148760A1 (en) | Image processing device, image capturing device, program and image processing method | |
US20110080503A1 (en) | Image sensing apparatus | |
US8520099B2 (en) | Imaging apparatus, integrated circuit, and image processing method | |
JP5600812B2 (en) | Imaging device | |
JP2006135823A (en) | Image processor, imaging apparatus and image processing program | |
JP4246244B2 (en) | Imaging device | |
JP2012142676A (en) | Imaging device and image generation method | |
JP6127368B2 (en) | Imaging device | |
JPWO2015083502A1 (en) | Image processing apparatus, method, and program | |
JP2012253490A (en) | Solid state image pickup device, imaging apparatus, and image generating method | |
JP2012099870A (en) | Image pickup device and image pickup method | |
JP2006262382A (en) | Image processing apparatus | |
JP6010943B2 (en) | Imaging device | |
JP2012231378A (en) | Imaging apparatus and image generation method | |
JP2013223208A (en) | Image pickup processing device | |
JP2012119852A (en) | Imaging apparatus and imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140304 |