[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5098908B2 - Image input device - Google Patents

Image input device Download PDF

Info

Publication number
JP5098908B2
JP5098908B2 JP2008229750A JP2008229750A JP5098908B2 JP 5098908 B2 JP5098908 B2 JP 5098908B2 JP 2008229750 A JP2008229750 A JP 2008229750A JP 2008229750 A JP2008229750 A JP 2008229750A JP 5098908 B2 JP5098908 B2 JP 5098908B2
Authority
JP
Japan
Prior art keywords
component
image component
pixel
unit
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008229750A
Other languages
Japanese (ja)
Other versions
JP2010068020A (en
Inventor
淳 高山
幸一 掃部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Advanced Layers Inc
Original Assignee
Konica Minolta Advanced Layers Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Advanced Layers Inc filed Critical Konica Minolta Advanced Layers Inc
Priority to JP2008229750A priority Critical patent/JP5098908B2/en
Publication of JP2010068020A publication Critical patent/JP2010068020A/en
Application granted granted Critical
Publication of JP5098908B2 publication Critical patent/JP5098908B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、撮像素子により撮像された画像を画像処理する画像入力装置に関するものである。   The present invention relates to an image input device that performs image processing on an image captured by an image sensor.

近年、夜間のシーンをカラーで撮像する撮像装置が知られている。特許文献1には、R,G,Bのフィルタを備える画素により撮像された画像からR,G,Bの色成分からなる可視画像データを抽出する可視画像抽出手段120と、Irのフィルタを備える画素により撮像された画像から赤外画像データを抽出する赤外画像抽出手段130と、可視画像データをHSV変換して第1の輝度情報を抽出し、かつ赤外画像データから第2の輝度情報を抽出する輝度情報抽出手段140と、第1の輝度情報を重み係数w1で重み付け、第2の輝度情報を重み係数w2(w1+w2=1)で重み付け、疑似カラー画像を生成する疑似カラー画像生成手段170とを備え、晴天の日ではw1=1とし、夜間の暗がりではw1=0とし、その中間的な状況下では1>w1>0とするカラー画像再生装置が開示されている。
特開2007−184805号公報
2. Description of the Related Art In recent years, imaging devices that capture night scenes in color are known. Patent Literature 1 includes a visible image extraction unit 120 that extracts visible image data including R, G, and B color components from an image captured by a pixel including R, G, and B filters, and an Ir filter. Infrared image extraction means 130 for extracting infrared image data from an image picked up by pixels, first luminance information is extracted by HSV conversion of visible image data, and second luminance information is extracted from the infrared image data. Information extracting means 140 for extracting the first luminance information with weighting factor w1, weighting the second luminance information with weighting factor w2 (w1 + w2 = 1), and a pseudo color image generating means for generating a pseudo color image 170, a color image reproducing apparatus in which w1 = 1 is set on a sunny day, w1 = 0 is set in the dark at night, and 1>w1> 0 is set in an intermediate state.
JP 2007-184805 A

ところで、特許文献1では、赤外成分を含む赤色、緑色、及び青色の受光素子における受光量をHSV色空間に変換することで、輝度成分Vが求められているが(段落[0035])、R,G,Bのフィルタは赤外波長領域における感度がそれぞれ異なり、赤外波長領域の感度がそれぞればらついており、赤外波長領域の一部の帯域の感度が低くなっている。そのため、可視波長領域の感度は異なるが、赤外波長領域の全域において一定の感度を有する複数種類のフィルタを備えた撮像素子を採用した場合についての課題が全く考慮されていない。   By the way, in Patent Document 1, the luminance component V is obtained by converting the received light amounts of the red, green, and blue light receiving elements including the infrared component into the HSV color space (paragraph [0035]). The R, G, and B filters have different sensitivities in the infrared wavelength region, the sensitivities in the infrared wavelength region vary, and the sensitivities in some bands in the infrared wavelength region are low. Therefore, although the sensitivity in the visible wavelength region is different, no problem is considered in the case where an image pickup device including a plurality of types of filters having a constant sensitivity in the entire infrared wavelength region is employed.

本発明の目的は、可視波長領域の感度は異なるが、赤外波長領域の全域において一定の感度を有する複数種類のフィルタを備えた画素から構成された撮像素子を採用した場合に生じる課題を解決することができる画像入力装置を提供することである。   The object of the present invention is to solve the problem that occurs when an imaging device composed of pixels having a plurality of types of filters having a constant sensitivity in the entire infrared wavelength region, although the sensitivity in the visible wavelength region is different. It is to provide an image input device capable of performing the above.

(1)本発明の一局面による画像入力装置は、赤外フィルタを備える画素により赤外画像成分を撮像し、フィルタを備えない画素により可視輝度画像成分と赤外画像成分とを含む輝度画像成分を撮像する撮像素子と、前記輝度画像成分における前記赤外画像成分の大きさを評価する評価部と、前記輝度画像成分と前記赤外画像成分とを基に、輝度信号を生成する信号生成部と、前記評価部による評価結果を基に、前記輝度画像成分における前記赤外画像成分の大きさが小さくなるにつれて、前記輝度信号のエッジ成分の強度が強くなるように、前記エッジ成分を強調させるエッジ処理部とを備えることを特徴とする。   (1) An image input apparatus according to an aspect of the present invention captures an infrared image component with a pixel including an infrared filter, and a luminance image component including a visible luminance image component and an infrared image component with a pixel not including the filter. An image pickup device that picks up an image, an evaluation unit that evaluates the size of the infrared image component in the luminance image component, and a signal generation unit that generates a luminance signal based on the luminance image component and the infrared image component Then, based on the evaluation result by the evaluation unit, the edge component is emphasized so that the intensity of the edge component of the luminance signal increases as the size of the infrared image component in the luminance image component decreases. And an edge processing unit.

撮像素子は、赤外フィルタを備える画素と、フィルタを備えない画素とを備えている。ここで、赤外フィルタを備える画素と、フィルタを備えない画素とは、赤外波長領域の全域に渡って一定の感度を有している。よって、この撮像素子は、赤外光に対する解像度は高いが、可視光に対する解像度は低い。そのため、この撮像素子は、可視光に対する赤外光の強度が弱くなるにつれて解像度が低くなり、それに伴って、輝度信号のエッジ成分の強度も、可視光に対する赤外光の強度が弱くなるにつれて低下する。そこで、エッジ処理部は、輝度画像成分に対する赤外画像成分の大きさが小さくなるにつれて、輝度信号のエッジ成分を強めるエッジ処理を行う。これにより、可視光に対する赤外光の強度の低下によって撮像素子の解像度が低下することによる輝度信号のエッジ成分の強度の低下を補うことができる。   The image sensor includes a pixel including an infrared filter and a pixel not including a filter. Here, the pixel provided with the infrared filter and the pixel not provided with the filter have a constant sensitivity over the entire infrared wavelength region. Therefore, this image sensor has a high resolution for infrared light but a low resolution for visible light. Therefore, this image sensor has a lower resolution as the intensity of the infrared light with respect to the visible light becomes weaker, and accordingly, the intensity of the edge component of the luminance signal also decreases as the intensity of the infrared light with respect to the visible light becomes weaker. To do. Therefore, the edge processing unit performs edge processing for enhancing the edge component of the luminance signal as the size of the infrared image component with respect to the luminance image component decreases. Thereby, it is possible to compensate for the decrease in the intensity of the edge component of the luminance signal due to the decrease in the resolution of the image sensor due to the decrease in the intensity of the infrared light with respect to the visible light.

(2)前記撮像素子は、可視波長領域と赤外波長領域とを有感度波長帯域とするカラーフィルタを備える画素を更に含み、前記信号生成部は、前記カラーフィルタを備える画素により撮像されたカラー画像成分と前記輝度画像成分と前記赤外画像成分とを基に色信号を生成し、生成した色信号を基に、前記輝度信号を生成することが好ましい。   (2) The image sensor further includes a pixel including a color filter having a visible wavelength region and an infrared wavelength region as a sensitive wavelength band, and the signal generation unit is a color imaged by the pixel including the color filter. It is preferable to generate a color signal based on the image component, the luminance image component, and the infrared image component, and generate the luminance signal based on the generated color signal.

この場合、カラーフィルタを備える画素によりカラー画像成分が撮像されている。そのため、カラー画像成分と輝度画像成分と赤外画像成分とを用いて色信号を生成することができる。また、カラーフィルタは、赤外波長領域を有感度波長帯域としているため、(1)の処理を適用することで、可視光に対する赤外光の強度の低下による輝度信号のエッジ信号の強度の低下を補うことができる。   In this case, a color image component is captured by a pixel including a color filter. Therefore, a color signal can be generated using the color image component, the luminance image component, and the infrared image component. In addition, since the color filter uses the infrared wavelength region as a sensitive wavelength band, the intensity of the edge signal of the luminance signal is reduced by applying the process (1) due to the reduction of the intensity of the infrared light with respect to the visible light. Can be supplemented.

(3)前記撮像素子は、可視波長領域と赤外波長領域とを有感度波長帯域とする第1の画素、第2の画素、第3の画素、及び第4の画素とを含む単位画素部がマトリックス状に配列され、前記第1の画素は、前記可視波長領域の青色領域を除く前記有感度波長帯域の光を透過する第1のカラーフィルタを備え、前記第2の画素は、前記可視波長領域の青色領域及び緑色領域を除く前記有感度波長帯域の光を透過する第2のカラーフィルタを備え、前記第3の画素は、前記可視波長領域を除く前記有感度波長帯域の光を透過する赤外フィルタを備え、前記第4の画素は、フィルタを備えないことが好ましい。   (3) The image pickup device includes a first pixel, a second pixel, a third pixel, and a fourth pixel having a visible wavelength region and an infrared wavelength region as sensitive wavelength bands. Are arranged in a matrix, and the first pixel includes a first color filter that transmits light in the sensitive wavelength band excluding the blue region of the visible wavelength region, and the second pixel includes the visible pixel. A second color filter that transmits light in the sensitive wavelength band excluding a blue region and a green region of the wavelength region; and the third pixel transmits light in the sensitive wavelength band excluding the visible wavelength region. Preferably, the fourth pixel is not provided with a filter.

この場合、第1の画素は、第1のカラーフィルタを備えているため、青色領域を除く有感度波長帯域の画像を可視カラー画像成分として撮像することができ、第2の画素は、第2のカラーフィルタを備えているため、青色領域及び緑色領域を除く有感度波長帯域の画像をカラー画像成分として撮像することができ、第3の画素は、可視波長領域を除く有感度波長帯域の画像を赤外画像成分として撮像することができ、第4の画像は、フィルタを備えていないため、有感度波長帯域の画像を輝度画像成分として撮像することができる。   In this case, since the first pixel includes the first color filter, an image in a sensitive wavelength band excluding the blue region can be picked up as a visible color image component. Since the color filter is provided, an image in the sensitive wavelength band excluding the blue region and the green region can be captured as a color image component, and the third pixel is an image in the sensitive wavelength band excluding the visible wavelength region. Since the fourth image does not include a filter, an image in the sensitive wavelength band can be captured as the luminance image component.

そして、撮像素子は、第1〜第4の画素を備える単位画素部がマトリックス状に配列されているため、可視カラー画像成分と赤外画像成分と輝度画像成分とを偏りなく撮像することができる。   And since the unit pixel part provided with the 1st-4th pixel is arranged in matrix form, the image pick-up element can image a visible color image component, an infrared image component, and a luminance image component without bias. .

(4)前記エッジ処理部は、前記撮像素子により撮像された輝度画像成分から高周波成分を抽出する抽出部と、前記評価部による評価結果に基づいて、前記輝度画像成分における前記赤外画像成分の大きさが小さくなるにつれて前記抽出部により抽出された高周波成分の強度が増大するように前記高周波成分の強度を調節する調節部と、前記調節部により強度が調節された高周波成分と、前記信号生成部により生成された輝度信号とを合成することで、前記輝度信号のエッジ成分を強調させる合成部とを備えることが好ましい。   (4) The edge processing unit includes: an extraction unit that extracts a high-frequency component from the luminance image component captured by the imaging device; and the infrared image component in the luminance image component based on an evaluation result by the evaluation unit. An adjustment unit for adjusting the intensity of the high-frequency component so that the intensity of the high-frequency component extracted by the extraction unit increases as the size decreases, a high-frequency component whose intensity is adjusted by the adjustment unit, and the signal generation It is preferable that a synthesis unit that enhances an edge component of the luminance signal by synthesizing with the luminance signal generated by the unit.

この場合、輝度画像成分から高周波成分を抽出し、この高周波成分の強度を調節した後、輝度信号に合成することで、輝度信号のエッジ成分の強度が調節されているため、輝度信号のエッジ成分の強度を精度良く調節することができる。   In this case, since the intensity of the edge component of the luminance signal is adjusted by extracting the high frequency component from the luminance image component, adjusting the intensity of the high frequency component, and then combining it with the luminance signal, the edge component of the luminance signal is adjusted. The strength of the can be adjusted with high accuracy.

(5)前記評価部は、前記輝度画像成分から前記赤外画像成分を減じた値である評価値を算出することで、前記輝度画像成分における前記赤外画像成分の大きさを評価することが好ましい。   (5) The evaluation unit may evaluate the size of the infrared image component in the luminance image component by calculating an evaluation value that is a value obtained by subtracting the infrared image component from the luminance image component. preferable.

この場合、簡便な処理により輝度画像成分における赤外画像成分の大きさを評価することができる。   In this case, the size of the infrared image component in the luminance image component can be evaluated by simple processing.

本発明によれば、可視波長領域の感度は異なるが、赤外波長領域の全域において一定の感度を有する複数種類のフィルタを備える画素から構成された撮像素子を採用した場合において、可視光に対する赤外光の強度の低下による輝度信号のエッジ成分の強度の低下を補うことができる。   According to the present invention, the sensitivity to visible light is different when an imaging device including pixels having a plurality of types of filters having constant sensitivity in the entire infrared wavelength region is employed, although the sensitivity in the visible wavelength region is different. A decrease in the intensity of the edge component of the luminance signal due to a decrease in the intensity of external light can be compensated.

以下、本発明の実施の形態による画像入力装置1について説明する。図1は、本発明の実施の形態による画像入力装置1のブロック図を示している。図1に示すように画像入力装置1は、レンズ2、撮像素子3、画像処理部4、及び制御部5を備えている。   Hereinafter, an image input apparatus 1 according to an embodiment of the present invention will be described. FIG. 1 shows a block diagram of an image input apparatus 1 according to an embodiment of the present invention. As shown in FIG. 1, the image input device 1 includes a lens 2, an image sensor 3, an image processing unit 4, and a control unit 5.

レンズ2は、被写体の光像を取り込み、撮像素子3へ導く光学レンズ系から構成される。光学レンズ系としては、被写体の光像の光軸Lに沿って直列的に配置される例えばズームレンズやフォーカスレンズ、その他の固定レンズブロック等を採用することができる。また、レンズ2は、透過光量を調節するための絞り(図略)、シャッタ(図略)等を備え、制御部5の制御の下、絞り及びシャッタの駆動が制御される。   The lens 2 includes an optical lens system that captures a light image of a subject and guides it to the image sensor 3. As the optical lens system, for example, a zoom lens, a focus lens, other fixed lens blocks, and the like arranged in series along the optical axis L of the optical image of the subject can be employed. The lens 2 includes a diaphragm (not shown) for adjusting the amount of transmitted light, a shutter (not shown), and the like, and the driving of the diaphragm and the shutter is controlled under the control of the control unit 5.

撮像素子3は、PD(フォトダイオード)からなる受光部と、受光部により光電変換された信号を出力する出力回路と、撮像素子3を駆動する駆動回路とを含み、光量に応じたレベルを有する画像データを生成する。ここで、撮像素子3としては、CMOSイメージセンサ、VMISイメージセンサ、及びCCDイメージセンサ等の種々の撮像センサを採用することができる。   The image pickup device 3 includes a light receiving unit composed of a PD (photodiode), an output circuit that outputs a signal photoelectrically converted by the light receiving unit, and a drive circuit that drives the image pickup device 3, and has a level corresponding to the amount of light. Generate image data. Here, as the imaging device 3, various imaging sensors such as a CMOS image sensor, a VMIS image sensor, and a CCD image sensor can be employed.

そして、本実施の形態において、撮像素子3は、カラーフィルタを備える画素により可視カラー画像成分を撮像し、赤外フィルタを備える画素により赤外画像成分DBlkを撮像し、フィルタを備えない画素により可視輝度画像成分と赤外画像成分DBlkとを含む輝度画像成分DWを撮像する。   In the present embodiment, the image sensor 3 captures a visible color image component with a pixel including a color filter, captures an infrared image component DBlk with a pixel including an infrared filter, and visualizes with a pixel not including the filter. The luminance image component DW including the luminance image component and the infrared image component DBlk is imaged.

画像処理部4は、画像信号に演算を行う演算回路及び画像信号を格納するメモリ等を含み、撮像素子3から出力された画像データをA/D変換してデジタル信号に変換し、後述する画像処理を実行した後、例えば図略のメモリや表示装置に出力する。   The image processing unit 4 includes an arithmetic circuit that performs an operation on the image signal, a memory that stores the image signal, and the like. The image data output from the image sensor 3 is A / D converted into a digital signal to be described later. After executing the processing, the data is output to a memory or a display device (not shown), for example.

制御部5は、CPU及びCPUが実行するプログラムを格納するメモリ等を含み、外部からの制御信号に応答し、撮像素子3及び画像処理部4を制御する制御信号を出力する。また、制御部5は画像処理部4から出力される後述する評価値を受け、評価値を基に後述する各種処理を行う。   The control unit 5 includes a CPU and a memory that stores a program executed by the CPU, and outputs a control signal for controlling the image sensor 3 and the image processing unit 4 in response to a control signal from the outside. In addition, the control unit 5 receives an evaluation value, which will be described later, output from the image processing unit 4, and performs various processes, which will be described later, based on the evaluation value.

図2は、撮像素子3の画素の配列を示す図である。図2に示すように撮像素子3は、可視波長領域と赤外波長領域とを有感度波長帯域とするye画素(第1の画素の一例)、R画素(第2の画素の一例)、Blk画素(第3の画素の一例)、及びW画素(第4の画素の一例)とを含む単位画素部31がマトリックス状に配列されている。   FIG. 2 is a diagram illustrating an arrangement of pixels of the image sensor 3. As shown in FIG. 2, the imaging device 3 includes a ye pixel (an example of a first pixel), an R pixel (an example of a second pixel), a Blk having a visible wavelength region and an infrared wavelength region as sensitive wavelength bands. Unit pixel portions 31 including pixels (an example of a third pixel) and W pixels (an example of a fourth pixel) are arranged in a matrix.

図2の場合、単位画素部31において、第1行第1列にR画素が配列され、第2行第21列にBlk画素が配列され、第1行第2列にW画素が配列され、第2行第2列にye画素が配列されるというように、R画素、Blk画素、W画素、及びye画素は千鳥状に配列されている。但し、これは一例であり、他のパターンでR画素、Blk画素、W画素、及びye画素を千鳥状に配列してもよい。   In the case of FIG. 2, in the unit pixel unit 31, R pixels are arranged in the first row and first column, Blk pixels are arranged in the second row and 21st column, and W pixels are arranged in the first row and second column, R pixels, Blk pixels, W pixels, and ye pixels are arranged in a staggered manner, such that ye pixels are arranged in the second row and the second column. However, this is only an example, and the R pixel, Blk pixel, W pixel, and ye pixel may be arranged in a staggered pattern in another pattern.

ye画素はyeフィルタ(第1のカラーフィルタの一例)を備えているため、yeの可視カラー画像成分(以下、「ye画像成分」と呼ぶ。)を撮像し、R画素はRフィルタ(第2のカラーフィルタの一例)を備えているため、Rの可視カラー画像成分(以下、「R画像成分」と呼ぶ)を撮像し、Blk画素はBlkフィルタ(赤外フィルタの一例)を備えているため、赤外画像成分DBlkを撮像し、W画素はフィルタを備えていないため、可視輝度画像成分と赤外画像成分DBlkとを含む輝度画像成分DWを撮像する。   Since the ye pixel includes a ye filter (an example of a first color filter), a visible color image component of ye (hereinafter referred to as “ye image component”) is imaged, and the R pixel is an R filter (second filter). Since an R visible color image component (hereinafter referred to as “R image component”) is imaged and a Blk pixel has a Blk filter (an example of an infrared filter). Since the infrared image component DBlk is imaged and the W pixel does not include a filter, the luminance image component DW including the visible luminance image component and the infrared image component DBlk is imaged.

図3は、ye,R,Blkフィルタの分光透過特性を示した図であり、縦軸は透過率(感度)を示し、横軸は波長(nm)を示している。なお、点線で示すグラフはフィルタが取り外された状態における画素の分光感度特性を示している。この分光感度特性は、600nm付近でピークを有し、上に凸の曲線を描いて変化していることが分かる。また、図3では、400nm〜640nmが可視波長領域とされ、640nm〜1100nmが赤外波長領域とされ、400nm〜1100nmが有感度波長帯域とされている。   FIG. 3 is a diagram showing the spectral transmission characteristics of the ye, R, and Blk filters. The vertical axis shows the transmittance (sensitivity), and the horizontal axis shows the wavelength (nm). A graph indicated by a dotted line shows the spectral sensitivity characteristics of the pixel in a state where the filter is removed. It can be seen that this spectral sensitivity characteristic has a peak near 600 nm and changes in a convex curve. In FIG. 3, 400 nm to 640 nm is a visible wavelength region, 640 nm to 1100 nm is an infrared wavelength region, and 400 nm to 1100 nm is a sensitive wavelength band.

図3に示すように、yeフィルタは、可視波長領域の青色領域を除く前記有感度波長帯域の光を透過する特性を有する。よって、yeフィルタは主にイエローの光と赤外光とを透過する。   As shown in FIG. 3, the ye filter has a characteristic of transmitting light in the sensitive wavelength band excluding the blue region of the visible wavelength region. Therefore, the ye filter mainly transmits yellow light and infrared light.

Rフィルタは、可視波長領域の青色領域及び緑色領域を除く有感度波長帯域の光を透過する特性を有する。よって、Rフィルタは主に赤の光と赤外光とを透過する。   The R filter has a characteristic of transmitting light in a sensitive wavelength band excluding a blue region and a green region in the visible wavelength region. Therefore, the R filter mainly transmits red light and infrared light.

Blkフィルタは、可視波長領域を除く有感度波長帯域、すなわち赤外波長帯域の光を透過する特性を有する。Wはフィルタを備えていない場合を示し、画素の有感度波長帯域の光が全て透過される。   The Blk filter has a characteristic of transmitting light in a sensitive wavelength band excluding the visible wavelength region, that is, in the infrared wavelength band. W indicates a case where no filter is provided, and all light in the sensitive wavelength band of the pixel is transmitted.

図4は、画像処理部4と制御部5とのブロック図を示している。画像処理部4は、評価部41、信号生成部42、エッジ処理部43、及び評価値算出部44を備えている。制御部5は、係数決定部51、露出補正値算出部52、及びWB(ホワイトバランス)補正値算出部53を備える。信号生成部42は、露出補正部421、色補間部422、色信号生成部423、WB補正部424、色信号合成部425、及び色空間変換部426を備えている。   FIG. 4 shows a block diagram of the image processing unit 4 and the control unit 5. The image processing unit 4 includes an evaluation unit 41, a signal generation unit 42, an edge processing unit 43, and an evaluation value calculation unit 44. The control unit 5 includes a coefficient determination unit 51, an exposure correction value calculation unit 52, and a WB (white balance) correction value calculation unit 53. The signal generation unit 42 includes an exposure correction unit 421, a color interpolation unit 422, a color signal generation unit 423, a WB correction unit 424, a color signal synthesis unit 425, and a color space conversion unit 426.

評価部41は、輝度画像成分DWにおける赤外画像成分DBlkの大きさを評価する。具体的には、評価部41は、撮像素子3で撮像された1フレームの画像内の所定行×所定列の画素からなる局所領域において、W画素の画素値、すなわち輝度画像成分DWの画素値を加算して評価値eDWを算出し、かつBlk画素の画素値、すなわち赤外画像成分DBlkの画素値を加算して評価値eDBlkを算出し、評価値eDWから評価値eDBlkを減じた値を評価値e(=eDW−eDBlk)として算出する。そして、評価部41は算出した評価値eによって輝度画像成分DWにおける赤外画像成分DBlkの大きさを評価する。なお、評価値eが大きくなるにつれて可視光に対する赤外光の強度が小さくなる。   The evaluation unit 41 evaluates the size of the infrared image component DBlk in the luminance image component DW. Specifically, the evaluation unit 41 has a pixel value of W pixels, that is, a pixel value of the luminance image component DW, in a local region including pixels in a predetermined row × predetermined column in an image of one frame imaged by the image sensor 3. Is added to calculate the evaluation value eDW, and the pixel value of the Blk pixel, that is, the pixel value of the infrared image component DBlk is added to calculate the evaluation value eDBlk, and the evaluation value eDW is subtracted from the evaluation value eDBlk. Calculated as an evaluation value e (= eDW−eDBlk). Then, the evaluation unit 41 evaluates the size of the infrared image component DBlk in the luminance image component DW based on the calculated evaluation value e. As the evaluation value e increases, the intensity of infrared light with respect to visible light decreases.

また、評価部41は、評価値eとしてeDW−eDBlkを採用したが、輝度画像成分DWにおける赤外画像成分DBlkの大きさを示す値であれば、どのような値を採用してもよく、例えば、eDBlk/eDWを評価値eとして採用してもよい。   The evaluation unit 41 employs eDW-eDBlk as the evaluation value e, but any value may be employed as long as the value indicates the size of the infrared image component DBlk in the luminance image component DW. For example, eDBlk / eDW may be adopted as the evaluation value e.

係数決定部51は、評価値eが大きくなるにつれて増大する予め定められた特性を有する重み係数kと、評価値eが大きくなるにつれて減少する予め定められた特性を有する重み係数kwとを、評価部41により算出された評価値eを用いて決定する。   The coefficient determination unit 51 evaluates a weighting coefficient k having a predetermined characteristic that increases as the evaluation value e increases, and a weighting coefficient kw that has a predetermined characteristic that decreases as the evaluation value e increases. The evaluation value e calculated by the unit 41 is used for determination.

図5は、重み係数k,kwの特性を示すグラフであり、縦軸が重み係数k,kwを示し横軸が評価値e(=eDW−eDBlk)を示している。図5に示すように重み係数kは評価値eが増大するにつれて例えば線形に増大する特性を有し、重み係数kwは評価値eが増大するにつれて例えば線形に減少する特性を有していることが分かる。   FIG. 5 is a graph showing the characteristics of the weighting factors k and kw. The vertical axis represents the weighting factors k and kw, and the horizontal axis represents the evaluation value e (= eDW−eDBlk). As shown in FIG. 5, the weighting factor k has a characteristic that increases linearly as the evaluation value e increases, and the weighting factor kw has a characteristic that decreases linearly as the evaluation value e increases, for example. I understand.

なお、図5において、重み係数k,kwの特性を示す直線の傾きは実験的に得られた値が採用されている。具体的には、重み係数k,kwはk+kw=1の関係を有しており、重み係数k,kwの特性を示す直線の傾きは、評価値eが予め定められた評価値eの最大値を示すときにk=1、kw=0となり、評価値eが予め定められた評価値eの最小値を示すときにk=0、kw=1となるような値を有している。   In FIG. 5, experimentally obtained values are used as the slopes of the straight lines indicating the characteristics of the weighting factors k and kw. Specifically, the weighting factors k and kw have a relationship of k + kw = 1, and the slope of the straight line indicating the characteristics of the weighting factors k and kw is the maximum value of the evaluation value e for which the evaluation value e is predetermined. K = 1 and kw = 0, and k = 0 and kw = 1 when the evaluation value e indicates a predetermined minimum value of the evaluation value e.

露出補正値算出部52は、係数決定部51により決定された重み係数k,kwを次式に代入することで輝度評価値edYを算出し、輝度評価値edYを所定の値で除すことで露出補正値H1を算出し、露出補正部421に出力する。ここで、所定の値としては、上述の局所領域におけるDBlk画素とDW画素との総画素数を採用することができる。   The exposure correction value calculation unit 52 calculates the luminance evaluation value edY by substituting the weighting coefficients k and kw determined by the coefficient determination unit 51 into the following equation, and divides the luminance evaluation value edY by a predetermined value. An exposure correction value H1 is calculated and output to the exposure correction unit 421. Here, as the predetermined value, the total number of pixels of the DBlk pixel and the DW pixel in the above-described local region can be employed.

edY=kw×eDW+k×(eDW−eDBlk)
露出補正部421は、露出補正値H1を、撮像素子3により撮像されたye画像成分Dye、R画像成分DR、赤外画像成分DBlk、及び輝度画像成分DWのそれぞれの各画素に乗ずることで、ye画像成分Dye、R画像成分DR、赤外画像成分DBlk、及び輝度画像成分DWを露出補正する。
edY = kw × eDW + k × (eDW−eDBlk)
The exposure correction unit 421 multiplies the exposure correction value H1 by the respective pixels of the ye image component Dye, the R image component DR, the infrared image component DBlk, and the luminance image component DW captured by the image sensor 3. The exposure correction is performed on the ye image component Dye, the R image component DR, the infrared image component DBlk, and the luminance image component DW.

色補間部422は、千鳥状に配列されたR画素、Blk画素、W画素、及びye画素の欠落画素を補間するために、R画像成分DR、赤外画像成分DBlk、輝度画像成分DW、及びye画像成分Dyeのそれぞれに補間処理を施し、撮像素子3の画素数と同一画素数からなるR画像成分DR、赤外画像成分DBlk、輝度画像成分DW、及びye画像成分Dyeを生成する。ここで、補間処理としては、例えば線形補間処理を採用することができる。   The color interpolation unit 422 interpolates missing pixels of R pixels, Blk pixels, W pixels, and ye pixels arranged in a staggered manner, so that an R image component DR, an infrared image component DBlk, a luminance image component DW, and Each of the ye image components Dye is subjected to interpolation processing to generate an R image component DR, an infrared image component DBlk, a luminance image component DW, and a ye image component Dye having the same number of pixels as the number of pixels of the image sensor 3. Here, as the interpolation processing, for example, linear interpolation processing can be adopted.

色信号生成部423は、色補間部422により補間処理が施されたye画像成分Dyeと、R画像成分DRと、赤外画像成分DBlkと、輝度画像成分DWとを式(1)により合成して、各画素のR(赤),G(緑),B(青)の色信号dR,dG,dBを生成する。   The color signal generation unit 423 combines the ye image component Dye subjected to the interpolation processing by the color interpolation unit 422, the R image component DR, the infrared image component DBlk, and the luminance image component DW by Expression (1). Thus, R (red), G (green), and B (blue) color signals dR, dG, and dB of each pixel are generated.

dR=DR−DBlk
dG=Dye−DR (1)
dB=DW−Dye
評価値算出部44は、上述した局所領域において、各画素の色信号dR,dG,dBの値を加算し、色信号dRの加算値Raveと、色信号dGの加算値Gaveと、色信号dBの加算値Baveとを算出し、制御部5に出力する。
dR = DR-DBlk
dG = Dye-DR (1)
dB = DW-Dye
The evaluation value calculation unit 44 adds the values of the color signals dR, dG, and dB of each pixel in the above-described local region, adds the value Rave of the color signal dR, the addition value Gave of the color signal dG, and the color signal dB. Is added to the controller 5 and output to the controller 5.

WB補正値算出部53は、加算値Raveと、加算値Gaveと、加算値Baveとから式(2)によりRの利得RgainとGの利得GgainとBの利得Bgainとを算出する。   The WB correction value calculation unit 53 calculates the R gain Rgain, the G gain Ggain, and the B gain Bgain from the added value Rave, the added value Gave, and the added value Bave according to Expression (2).

Rgain=Gave÷Rave
Ggain=Gave÷Gave (2)
Bgain=Gave÷Bave
WB補正部424は、式(3)に示すようにWB補正値算出部53により算出された利得Rgain,Ggain,Bgainを、色信号生成部423により生成された各画素の色信号dR,dG,dBに乗じ、色信号dR´,dG´,dB´を算出する。これにより、色信号dR,dG,dBは色信号dGを基準としてWB補正が施される。
Rgain = Gave / Rave
Ggain = Gave / Gave (2)
Bgain = Gave / Bave
The WB correction unit 424 uses the gains Rgain, Ggain, and Bgain calculated by the WB correction value calculation unit 53 as shown in Expression (3) as the color signals dR, dG, The color signals dR ′, dG ′, and dB ′ are calculated by multiplying dB. As a result, the color signals dR, dG, and dB are subjected to WB correction based on the color signal dG.

dR´=Rgain×dR
dG´=Ggain×dG (3)
dB´=Bgain×dB
なお、WB補正部424は、色信号dGに代えて、色信号dR又は色信号dBを基準としてWB補正を行ってもよい。この場合、WB補正値算出部53は、WB補正部424が基準とする色信号dR又はdBに応じた利得を算出すればよい。
dR ′ = Rgain × dR
dG ′ = Ggain × dG (3)
dB ′ = Bgain × dB
Note that the WB correction unit 424 may perform WB correction using the color signal dR or the color signal dB as a reference instead of the color signal dG. In this case, the WB correction value calculation unit 53 may calculate a gain corresponding to the color signal dR or dB that is the reference of the WB correction unit 424.

色信号合成部425は、式(4)に示すように、係数決定部51により決定された重み係数kにより色信号dR´,dG´,dB´を重み付け、色補間部422により補間された赤外画像成分DBlkを、係数決定部51により決定された重み係数kwを用いて重み付け、重み付けした色信号dR´,dG´,dB´のそれぞれと、重み付けした赤外画像成分DBlkとを合成して、各画素の合成色信号Rwav,Gwav,Bwavを生成する。   The color signal synthesis unit 425 weights the color signals dR ′, dG ′, and dB ′ with the weighting coefficient k determined by the coefficient determination unit 51 and interpolates the red signal interpolated by the color interpolation unit 422 as shown in Expression (4). The outer image component DBlk is weighted using the weighting coefficient kw determined by the coefficient determining unit 51, and each of the weighted weighted color signals dR ′, dG ′, and dB ′ is combined with the weighted infrared image component DBlk. The combined color signals Rwav, Gwav, and Bwav for each pixel are generated.

Rwav=k・dR´+kw・DBlk
Gwav=k・dG´+kw・DBlk (4)
Bwav=k・dB´+kw・DBlk
ここで、重み係数kは評価値eが大きいほど大きな値とされ、重み係数kwは評価値eが大きいほど小さな値とされる。
Rwav = k · dR ′ + kw · DBlk
Gwav = k · dG ′ + kw · DBlk (4)
Bwav = k · dB ′ + kw · DBlk
Here, the larger the evaluation value e, the larger the weighting coefficient k, and the smaller the weighting coefficient kw, the larger the evaluation value e.

そのため、晴天等の被写体が明るい場合、合成色信号Rwav,Gwav,Bwavにおいて、可視輝度画像成分を表す色信号dR´,dG´,dB´の占める割合が大きくなり、人が目視している被写体と同等の画像を得ることができる。   Therefore, when a subject such as clear sky is bright, the ratio of the color signals dR ′, dG ′, and dB ′ representing the visible luminance image component in the composite color signals Rwav, Gwav, and Bwav is large, and the subject that the person is viewing Can be obtained.

一方、暗がり等の被写体が暗い場合、合成色信号Rwav,Gwav,Bwavにおいて、赤外画像成分DBlkの占める割合が大きくなり、赤外波長領域の輝度信号を多く用いてS/N比のよい色信号を得ることができる。   On the other hand, when a subject such as darkness is dark, the ratio of the infrared image component DBlk is large in the composite color signals Rwav, Gwav, and Bwav, and a color with a good S / N ratio is obtained by using a large number of luminance signals in the infrared wavelength region. A signal can be obtained.

色空間変換部426は、式(5)に示すように、合成色信号Rwav,Gwav,Bwavを用いて、輝度信号Y、色差信号Cb,Crを生成する。   The color space conversion unit 426 generates a luminance signal Y and color difference signals Cb, Cr using the combined color signals Rwav, Gwav, Bwav as shown in Expression (5).

ここで、色差信号Cbは青の色差信号を示し、色差信号Crは赤の色差信号を示す。   Here, the color difference signal Cb indicates a blue color difference signal, and the color difference signal Cr indicates a red color difference signal.

Y=0.3Rwav+0.59Gwav+0.11Bwav
Cb=Bwav−Y (5)
Cr=Rwav−Y
エッジ処理部43は、抽出部431、コアリング部432、調節部433、及び合成部434を備えている。抽出部431は、色補間部422により補間された輝度画像成分DWの高周波成分Yhを抽出する。ここで、抽出部431は、以下のようにして、高周波成分Yhを抽出する。抽出対象となる高周波成分Yhの帯域を通過する広帯域ローパスフィルタを用いて輝度画像成分DWをフィルタ処理し、広帯域ローパス成分YWWを抽出する。一方、色補間部422で補間処理された輝度画像成分DW、ye画像成分Dye、R画像成分DR、及び赤外画像成分DBlkの4枚の画像成分を平均して、平均画像成分YWLを生成する。そして、広帯域ローパス成分YWW−平均画像成分YWLにより高周波成分Yhを抽出する。
Y = 0.3Rwav + 0.59Gwav + 0.11Bwav
Cb = Bwav−Y (5)
Cr = Rwav-Y
The edge processing unit 43 includes an extraction unit 431, a coring unit 432, an adjustment unit 433, and a synthesis unit 434. The extraction unit 431 extracts the high frequency component Yh of the luminance image component DW interpolated by the color interpolation unit 422. Here, the extraction unit 431 extracts the high frequency component Yh as follows. The luminance image component DW is filtered using a broadband low-pass filter that passes through the band of the high-frequency component Yh to be extracted, and the broadband low-pass component YWW is extracted. On the other hand, the four image components of the luminance image component DW, the ye image component Dye, the R image component DR, and the infrared image component DBlk interpolated by the color interpolation unit 422 are averaged to generate an average image component YWL. . Then, the high-frequency component Yh is extracted by the broadband low-pass component YWW-average image component YWL.

なお、抽出部431は、例えば、所定行×所定列のハイパスフィルタを用いて輝度画像成分DWをフィルタ処理することで、高周波成分Yhを抽出してもよい。   The extraction unit 431 may extract the high frequency component Yh by filtering the luminance image component DW using, for example, a predetermined row × predetermined high-pass filter.

コアリング部432は、高周波成分Yhにコアリングを行い、高周波成分Yhに含まれる微弱なノイズを除去する。   The coring unit 432 performs coring on the high frequency component Yh and removes weak noise included in the high frequency component Yh.

調節部433は、評価部41により算出された評価値eが小さくなるにつれて高周波成分Yhの強度を増大させるためのゲインGGを設定し、設定したゲインGGを高周波成分Yhに乗ずることで高周波成分Yhの強度を調節する。   The adjustment unit 433 sets a gain GG for increasing the strength of the high-frequency component Yh as the evaluation value e calculated by the evaluation unit 41 decreases, and multiplies the set gain GG by the high-frequency component Yh to thereby increase the high-frequency component Yh. Adjust the intensity.

図6は、ゲインGGの特性を示すグラフであり、縦軸がゲインGGを示し、横軸が評価値e(=eDW−eDBlk)を示している。また、e−maxは予め定められた評価値eの最大値である。図6に示すように、ゲインGGは、eが0から1/3e−maxの範囲ではLLであり、eが1/3e−maxからeが2/3e−maxの範囲ではほぼ線形にLLからHLまで緩やかに増大し、eが2/3e−maxからe−maxの範囲ではHLとなる。このように、ゲインGGを緩やかに増大させているのは、可視光に対する赤外光の強度の低下に対して、輝度信号Yのエッジ成分の強度が緩慢に低下するからである。   FIG. 6 is a graph showing the characteristics of the gain GG, where the vertical axis indicates the gain GG and the horizontal axis indicates the evaluation value e (= eDW−eDBlk). E-max is a predetermined maximum value of the evaluation value e. As shown in FIG. 6, the gain GG is LL when e is in the range of 0 to 1 / 3e-max, and is almost linear from LL when e is in the range of 1 / 3e-max to 2 / 3e-max. It gradually increases to HL, and becomes HL in the range of e from 2/3 e-max to e-max. The reason why the gain GG is gradually increased in this way is that the intensity of the edge component of the luminance signal Y gradually decreases with respect to the decrease in the intensity of the infrared light with respect to the visible light.

具体的には、調節部433は、図6に示す評価値eとゲインGGとの関係を示すルックアップテーブル又は関数を予め記憶しており、このルックアップテーブル又は関数を用いて評価値eに対応するゲインGGを設定する。そして、設定したゲインGGを高周波成分Yhに乗じることで、高周波成分Yhの強度を調節する。   Specifically, the adjustment unit 433 stores in advance a lookup table or function indicating the relationship between the evaluation value e and the gain GG shown in FIG. 6, and uses this lookup table or function to set the evaluation value e. Set the corresponding gain GG. Then, the strength of the high frequency component Yh is adjusted by multiplying the set gain GG by the high frequency component Yh.

なお、図6において、LLとしては例えば0.2、HLとしては例えば0.8を採用することができるが、これは一例であり、LLとして0や0.1、HLとして0.8や1と等の他の値を採用してもよい。また、図6において、ゲインGGは1/3e−max及び2/3e−maxで変化しているが、これに限定されず、1/4e−max及び3/4e−maxというように他の値で変化させてもよい。   In FIG. 6, for example, 0.2 can be used as LL, and 0.8 can be used as HL. However, this is an example, and 0 or 0.1 as LL, 0.8 or 1 as HL. Other values such as and may be adopted. Further, in FIG. 6, the gain GG changes at 1 / 3e-max and 2 / 3e-max, but is not limited to this, and other values such as 1 / 4e-max and 3 / 4e-max are obtained. It may be changed with.

合成部434は、調節部433により強度が調節された高周波成分Yhと色空間変換部426により生成された輝度信号Yとを合成することで、エッジ成分が強調された輝度信号Y´を生成する。ここで、合成部434は、高周波成分Yhと輝度信号Yとの対応する画素の画素値を加算する、或いは高周波成分Yhと輝度信号Yとを一定の割合で重み付け、対応する画素の画素値を加算することで、高周波成分Yhと輝度信号Yとを合成すればよい。   The synthesizing unit 434 generates a luminance signal Y ′ in which the edge component is emphasized by synthesizing the high frequency component Yh whose intensity is adjusted by the adjusting unit 433 and the luminance signal Y generated by the color space converting unit 426. . Here, the synthesizing unit 434 adds the pixel values of the corresponding pixels of the high frequency component Yh and the luminance signal Y, or weights the high frequency component Yh and the luminance signal Y at a certain ratio, and sets the pixel values of the corresponding pixels. What is necessary is just to synthesize | combine the high frequency component Yh and the luminance signal Y by adding.

以上により、画像処理部4は、輝度信号Yと、色差信号Cb,Crとからなる画像信号を生成する。   As described above, the image processing unit 4 generates an image signal including the luminance signal Y and the color difference signals Cb and Cr.

次に、画像入力装置1の動作について説明する。まず、制御部5は、撮像素子3に1フレームの画像を撮像させる。ここで、撮像素子3は、ye画素によりye画像成分Dyeを撮像し、R画素によりR画像成分DRを撮像し、Blk画素により赤外画像成分DBlkを撮像し、W画素により輝度画像成分DWを撮像する。なお、画像入力装置1が動画像を撮像する場合、制御部5は、1/30s、1/60s等のフレームレートで撮像素子3に画像を撮像させればよい。また、画像入力装置1が静止画像を撮像する場合、制御部5は、ユーザによりレリースボタンが押されたときに、撮像素子3に画像を撮像させればよい。   Next, the operation of the image input apparatus 1 will be described. First, the control unit 5 causes the image sensor 3 to capture an image of one frame. Here, the imaging device 3 images the ye image component Dye by the ye pixel, images the R image component DR by the R pixel, images the infrared image component DBlk by the Blk pixel, and the luminance image component DW by the W pixel. Take an image. When the image input device 1 captures a moving image, the control unit 5 may cause the image sensor 3 to capture an image at a frame rate such as 1/30 s or 1/60 s. When the image input device 1 captures a still image, the control unit 5 may cause the image sensor 3 to capture an image when the user presses the release button.

次に、評価部41は、局所領域における輝度画像成分DWの画素値を加算して評価値eDWを算出し、局所領域における赤外画像成分DBlkの画素値を加算して評価値eDBlkを算出し、評価値e(=eDW−eDBlk)を算出する。   Next, the evaluation unit 41 calculates the evaluation value eDW by adding the pixel values of the luminance image component DW in the local region, and calculates the evaluation value eDBlk by adding the pixel value of the infrared image component DBlk in the local region. The evaluation value e (= eDW−eDBlk) is calculated.

次に、係数決定部51は、評価値eから重み係数k,kwを決定する。次に、露出補正値算出部52は、重み係数k,kwから露出補正値H1を算出する。   Next, the coefficient determination unit 51 determines the weight coefficients k and kw from the evaluation value e. Next, the exposure correction value calculation unit 52 calculates the exposure correction value H1 from the weighting factors k and kw.

次に、露出補正部421は、露出補正値H1を、ye画像成分Dye、R画像成分DR、赤外画像成分DBlk、及び輝度画像成分DWのそれぞれの各画素に乗ずることで、ye画像成分Dye、R画像成分DR、赤外画像成分DBlk、及び輝度画像成分DWを露出補正する。   Next, the exposure correction unit 421 multiplies each pixel of the ye image component Dye, the R image component DR, the infrared image component DBlk, and the luminance image component DW by multiplying the exposure correction value H1 by the ye image component Dye. , R image component DR, infrared image component DBlk, and luminance image component DW are corrected for exposure.

次に、色補間部422は、露出補正されたye画像成分Dye、R画像成分DR、赤外画像成分DBlk、及び輝度画像成分DWを補間処理する。   Next, the color interpolation unit 422 interpolates the exposure-corrected ye image component Dye, R image component DR, infrared image component DBlk, and luminance image component DW.

次に、色信号生成部423は、式(1)により色信号dR,dG,dBを生成する。   Next, the color signal generation unit 423 generates the color signals dR, dG, and dB using Expression (1).

次に、評価値算出部44は、加算値Rave,Gave,Baveを算出する。次に、WB補正値算出部53は、加算値Rave,Gave、Baveを用いて利得Rgain,Ggain,Bgainを算出する。次に、WB補正部46は、利得Rgain,Ggain,Bgainを用いて各画素の色信号dR,dG,dBをWB補正する。   Next, the evaluation value calculation unit 44 calculates the addition values Rave, Gave, and Bave. Next, the WB correction value calculation unit 53 calculates gains Rgain, Ggain, and Bgain using the addition values Rave, Gave, and Bave. Next, the WB correction unit 46 WB corrects the color signals dR, dG, dB of each pixel using the gains Rgain, Ggain, Bgain.

次に、色信号合成部425は、式(4)を用いて、合成色信号Rwav,Gwav,Bwavを生成する。次に、色空間変換部426は、式(5)を用いて、輝度信号Y、色差信号Cb,Crを生成する。   Next, the color signal synthesis unit 425 generates the synthesized color signals Rwav, Gwav, and Bwav using Expression (4). Next, the color space conversion unit 426 generates a luminance signal Y and color difference signals Cb and Cr using Expression (5).

次に、抽出部431は、輝度画像成分DWの高周波成分Yhを抽出する。次に、コアリング部432は、高周波成分Yhから微弱なノイズを除去する。次に、調節部433は、評価値eからゲインGGを設定し、設定したゲインGGを高周波成分Yhに乗じて、高周波成分Yhの強度を調節する。   Next, the extraction unit 431 extracts the high frequency component Yh of the luminance image component DW. Next, the coring unit 432 removes weak noise from the high frequency component Yh. Next, the adjustment unit 433 sets the gain GG from the evaluation value e, multiplies the set gain GG by the high frequency component Yh, and adjusts the intensity of the high frequency component Yh.

次に、合成部434は、色空間変換部426により生成された輝度信号Yに、強度が調節された高周波成分Yhを合成し、輝度信号Yのエッジ成分の強度が調節された輝度信号Y´を生成する。   Next, the synthesizing unit 434 synthesizes the high-frequency component Yh whose intensity is adjusted with the luminance signal Y generated by the color space conversion unit 426, and the luminance signal Y ′ whose intensity of the edge component of the luminance signal Y is adjusted. Is generated.

このように、画像入力装置1によれば、エッジ処理部43が、評価値eの値が増大するにつれて、すなわち可視光に対する赤外光の強度が弱くなるにつれて、輝度信号Yのエッジ成分を強めるエッジ処理を行っている。これにより、可視光に対する赤外光の強度の低下によって撮像素子の解像度が低下することによる輝度信号のエッジ成分の強度の低下を補うことができる。   Thus, according to the image input device 1, the edge processing unit 43 increases the edge component of the luminance signal Y as the evaluation value e increases, that is, as the intensity of infrared light with respect to visible light decreases. Edge processing is performed. Thereby, it is possible to compensate for the decrease in the intensity of the edge component of the luminance signal due to the decrease in the resolution of the image sensor due to the decrease in the intensity of the infrared light with respect to the visible light.

本発明の実施の形態による画像入力装置のブロック図を示している。1 shows a block diagram of an image input device according to an embodiment of the present invention. FIG. 撮像素子の画素の配列を示す図である。It is a figure which shows the arrangement | sequence of the pixel of an image pick-up element. ye,R,Blkフィルタの分光透過特性を示した図である。It is the figure which showed the spectral transmission characteristic of ye, R, Blk filter. 画像処理部と制御部とのブロック図を示している。The block diagram of an image processing part and a control part is shown. 重み係数k,kwの特性を示すグラフである。It is a graph which shows the characteristic of the weighting factors k and kw. 調節部433が設定するゲインの特性を示すグラフである。It is a graph which shows the characteristic of the gain which the adjustment part 433 sets.

符号の説明Explanation of symbols

3 撮像素子
4 画像処理部
5 制御部
41 評価部
42 信号生成部
43 エッジ処理部
423 色信号生成部
425 色信号合成部
426 色空間変換部
431 抽出部
432 コアリング部
433 調節部
434 合成部
3 image sensor 4 image processing unit 5 control unit 41 evaluation unit 42 signal generation unit 43 edge processing unit 423 color signal generation unit 425 color signal synthesis unit 426 color space conversion unit 431 extraction unit 432 coring unit 433 adjustment unit 434 synthesis unit

Claims (5)

赤外フィルタを備える画素により赤外画像成分を撮像し、フィルタを備えない画素により可視輝度画像成分と赤外画像成分とを含む輝度画像成分を撮像する撮像素子と、
前記輝度画像成分における前記赤外画像成分の大きさを評価する評価部と、
前記輝度画像成分と前記赤外画像成分とを基に、輝度信号を生成する信号生成部と、
前記評価部による評価結果を基に、前記輝度画像成分における前記赤外画像成分の大きさが小さくなるにつれて、前記輝度信号のエッジ成分の強度が強くなるように、前記エッジ成分を強調させるエッジ処理部とを備えることを特徴とする画像入力装置。
An image sensor that captures an infrared image component with a pixel including an infrared filter, and that captures a luminance image component including a visible luminance image component and an infrared image component with a pixel that does not include a filter;
An evaluation unit for evaluating the size of the infrared image component in the luminance image component;
A signal generation unit that generates a luminance signal based on the luminance image component and the infrared image component;
Edge processing for emphasizing the edge component so that the intensity of the edge component of the luminance signal increases as the size of the infrared image component in the luminance image component decreases based on the evaluation result by the evaluation unit An image input device.
前記撮像素子は、可視波長領域と赤外波長領域とを有感度波長帯域とするカラーフィルタを備える画素を更に含み、
前記信号生成部は、前記カラーフィルタを備える画素により撮像されたカラー画像成分と前記輝度画像成分と前記赤外画像成分とを基に色信号を生成し、生成した色信号を基に、前記輝度信号を生成することを特徴とする請求項1記載の画像入力装置。
The imaging device further includes a pixel including a color filter having a visible wavelength region and an infrared wavelength region as a sensitive wavelength band,
The signal generation unit generates a color signal based on a color image component captured by a pixel including the color filter, the luminance image component, and the infrared image component, and based on the generated color signal, the luminance The image input device according to claim 1, wherein a signal is generated.
前記撮像素子は、可視波長領域と赤外波長領域とを有感度波長帯域とする第1の画素、第2の画素、第3の画素、及び第4の画素とを含む単位画素部がマトリックス状に配列され、
前記第1の画素は、前記可視波長領域の青色領域を除く前記有感度波長帯域の光を透過する第1のカラーフィルタを備え、
前記第2の画素は、前記可視波長領域の青色領域及び緑色領域を除く前記有感度波長帯域の光を透過する第2のカラーフィルタを備え、
前記第3の画素は、前記可視波長領域を除く前記有感度波長帯域の光を透過する赤外フィルタを備え、
前記第4の画素は、フィルタを備えないことを特徴とする請求項2記載の画像入力装置。
The image pickup device has a matrix pixel unit unit including a first pixel, a second pixel, a third pixel, and a fourth pixel having a visible wavelength region and an infrared wavelength region as sensitive wavelength bands. Arranged in
The first pixel includes a first color filter that transmits light in the sensitive wavelength band excluding a blue region of the visible wavelength region,
The second pixel includes a second color filter that transmits light in the sensitive wavelength band excluding a blue region and a green region of the visible wavelength region,
The third pixel includes an infrared filter that transmits light in the sensitive wavelength band excluding the visible wavelength region,
The image input device according to claim 2, wherein the fourth pixel does not include a filter.
前記エッジ処理部は、
前記撮像素子により撮像された輝度画像成分から高周波成分を抽出する抽出部と、
前記評価部による評価結果に基づいて、前記輝度画像成分における前記赤外画像成分の大きさが小さくなるにつれて前記抽出部により抽出された高周波成分の強度が増大するように前記高周波成分の強度を調節する調節部と、
前記調節部により強度が調節された高周波成分と、前記信号生成部により生成された輝度信号とを合成することで、前記輝度信号のエッジ成分を強調させる合成部とを備えることを特徴とする請求項1〜3のいずれかに記載の画像入力装置。
The edge processing unit
An extraction unit that extracts a high-frequency component from a luminance image component imaged by the imaging device;
Based on the evaluation result by the evaluation unit, the intensity of the high-frequency component is adjusted so that the intensity of the high-frequency component extracted by the extraction unit increases as the size of the infrared image component in the luminance image component decreases. Adjusting part to be
A synthesis unit that enhances an edge component of the luminance signal by synthesizing the high-frequency component whose intensity is adjusted by the adjustment unit and the luminance signal generated by the signal generation unit. Item 4. The image input device according to any one of Items 1 to 3.
前記評価部は、前記輝度画像成分から前記赤外画像成分を減じた値である評価値を算出することで、前記輝度画像成分における前記赤外画像成分の大きさを評価することを特徴とする請求項1〜4のいずれかに記載の画像入力装置。   The evaluation unit evaluates the size of the infrared image component in the luminance image component by calculating an evaluation value that is a value obtained by subtracting the infrared image component from the luminance image component. The image input device according to claim 1.
JP2008229750A 2008-09-08 2008-09-08 Image input device Expired - Fee Related JP5098908B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008229750A JP5098908B2 (en) 2008-09-08 2008-09-08 Image input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008229750A JP5098908B2 (en) 2008-09-08 2008-09-08 Image input device

Publications (2)

Publication Number Publication Date
JP2010068020A JP2010068020A (en) 2010-03-25
JP5098908B2 true JP5098908B2 (en) 2012-12-12

Family

ID=42193257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008229750A Expired - Fee Related JP5098908B2 (en) 2008-09-08 2008-09-08 Image input device

Country Status (1)

Country Link
JP (1) JP5098908B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011259060A (en) * 2010-06-07 2011-12-22 Konica Minolta Opto Inc Image pickup device
JP6650691B2 (en) 2015-07-02 2020-02-19 キヤノン株式会社 Imaging device
EP3422700B1 (en) 2017-06-29 2021-03-10 Axis AB A method for enhancing color images, and an assembly performing such method
EP3343894B1 (en) 2016-12-28 2018-10-31 Axis AB Ir-filter arrangement
EP3343897B1 (en) 2016-12-28 2019-08-21 Axis AB Camera and method of producing color images

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5200319B2 (en) * 2005-06-17 2013-06-05 凸版印刷株式会社 Image sensor
JP4466569B2 (en) * 2006-01-10 2010-05-26 株式会社豊田中央研究所 Color image playback device
JP4341695B2 (en) * 2007-05-17 2009-10-07 ソニー株式会社 Image input processing device, imaging signal processing circuit, and imaging signal noise reduction method

Also Published As

Publication number Publication date
JP2010068020A (en) 2010-03-25

Similar Documents

Publication Publication Date Title
JP5168353B2 (en) Imaging device and imaging device
JP5527448B2 (en) Image input device
JP5397788B2 (en) Image input device
KR101099401B1 (en) Image processing apparatus and computer-readable medium
JP4420917B2 (en) Imaging device
JP6019964B2 (en) Image processing apparatus, imaging apparatus equipped with the same, and image processing method
JP5223742B2 (en) Edge-enhanced image processing apparatus
JP5523802B2 (en) Image processing device
US10412356B2 (en) Image processing apparatus and image processing method
US8086032B2 (en) Image processing device, image processing method, and image pickup apparatus
JP2008165312A (en) Image processor and image processing method
WO2016047240A1 (en) Image processing device, image pickup element, image pickup device, and image processing method
JP2011239252A (en) Imaging device
JP2010154335A (en) Imaging apparatus and imaging method
JP5098908B2 (en) Image input device
JP5228717B2 (en) Image input device
US10395347B2 (en) Image processing device, imaging device, image processing method, and image processing program
JP2010161455A (en) Infrared combined imaging device
JP5464008B2 (en) Image input device
JP2008219230A (en) Imaging apparatus, and image processing method
JP2007043312A (en) Imaging apparatus
JP5920144B2 (en) Imaging apparatus and imaging method
JP2023013549A (en) Imaging apparatus, imaging method, and program
JP2006324789A (en) Method and apparatus for processing video signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120910

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees