[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2019204988A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2019204988A
JP2019204988A JP2018096893A JP2018096893A JP2019204988A JP 2019204988 A JP2019204988 A JP 2019204988A JP 2018096893 A JP2018096893 A JP 2018096893A JP 2018096893 A JP2018096893 A JP 2018096893A JP 2019204988 A JP2019204988 A JP 2019204988A
Authority
JP
Japan
Prior art keywords
infrared light
luminance
region
unit
light image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018096893A
Other languages
Japanese (ja)
Inventor
大昌 新舎
Hiromasa Shinsha
大昌 新舎
勉 薄井
Tsutomu Usui
勉 薄井
浩二 小幡
Koji Obata
浩二 小幡
中野憲彦
Norihiko Nakano
憲彦 中野
仁 高木
Hitoshi Takagi
仁 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2018096893A priority Critical patent/JP2019204988A/en
Publication of JP2019204988A publication Critical patent/JP2019204988A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image processing apparatus and an image processing method that can expand an object recognizable range.SOLUTION: An image processing apparatus 5 comprises: an infrared light radiation unit 1 that radiates infrared light toward the periphery of a vehicle V; an imaging unit 2 that picks up an infrared light image of the periphery of the vehicle and outputs an infrared light image signal; and a recognition unit 3 that recognizes a first area in the infrared light image where an image a first object is picked up on the basis of the infrared light image signal from the imaging unit 2, and outputs first position information in the infrared light image related to the first area. The imaging unit 2 has a brightness adjustment unit 234 that, on the basis of the first position information output from the recognition unit 3, adjusts a second brightness of a second area having a lower brightness than a first brightness of the first area in the infrared light image on the basis of the first brightness.SELECTED DRAWING: Figure 6

Description

本発明は、赤外光を照射する赤外光照射部と赤外光画像を撮像する撮像部とを有する画像処理装置及び画像処理方法に関するものである。   The present invention relates to an image processing apparatus and an image processing method including an infrared light irradiation unit that irradiates infrared light and an imaging unit that captures an infrared light image.

車両に搭載され、この車両前方を主に撮像する車載カメラを有する車載カメラシステムが提案、実現されている。特に、最新のEuroNCAP(European New Car Assessment Programme:ヨーロッパ新車アセスメントプログラム)において、夜間における歩行者等に対するAEB(Autonomous Emergency Braking:自動緊急ブレーキシステム)が評価項目に含まれることが予定されており、車両前方を撮像するカメラを有する車載カメラシステムの重要性が高まっている。   An in-vehicle camera system having an in-vehicle camera that is mounted on a vehicle and mainly captures the front of the vehicle has been proposed and realized. In particular, in the latest EuroNCAP (European New Car Assessment Program), AEB (Autonomous Emergency Braking) for pedestrians at night is scheduled to be included in the evaluation items. The importance of an in-vehicle camera system having a camera that images the front is increasing.

このような車載カメラシステムに適用されるカメラは、従来から車両に搭載されている可視光のヘッドライトにより照射された対象物からの戻り光を撮像するものが用いられてきた。ここで、夜間の遠方視認性及び安全性の向上を目的としてハイビームヘッドライトを常時点灯させると、このハイビームヘッドライトが対向車に照射されることで対向車のドライバーが眩惑する可能性があるため、ハイビームヘッドライトを常時点灯させることは難しい。このため、可視光のヘッドライトでは光を届かせる範囲に一定の限界が生じていた。   As a camera applied to such an in-vehicle camera system, a camera that images a return light from an object irradiated by a visible light headlight mounted on a vehicle has been used. Here, if the high beam headlight is always turned on for the purpose of improving the visibility and safety in the distance at night, the driver of the oncoming vehicle may be dazzled by irradiating the oncoming vehicle with this high beam headlight. It is difficult to always turn on the high beam headlight. For this reason, the visible light headlight has a certain limit in the light reachable range.

そこで、更なる夜間の遠方視認性及び安全性の向上を目的として、近赤外光が受光可能な車両前方を撮像する車載カメラと、車両前方に近赤外光を投光する投光器とを有する車載カメラシステムが提案されている(例えば特許文献1参照)。人間は近赤外光を視認することができないので、投光器を車両前方に照射していても対向車のドライバーが近赤外光により眩惑されることがない。これにより、可視光のヘッドライトによる光よりも遠くまで投光器により近赤外光を照射させ、車載カメラにより常に遠方などの被写体等を撮像することが可能となり、遠方の視認性及び、安全性の向上が見込まれる。   Therefore, for the purpose of further improving nighttime visibility and safety, it has an in-vehicle camera that images the front of the vehicle capable of receiving near-infrared light, and a projector that projects near-infrared light in front of the vehicle. An in-vehicle camera system has been proposed (see, for example, Patent Document 1). Since humans cannot visually recognize near-infrared light, the driver of an oncoming vehicle is not dazzled by near-infrared light even when the projector is illuminated in front of the vehicle. As a result, it is possible to irradiate near-infrared light with a projector farther than the light from the visible headlight, and it is always possible to image subjects such as far away with the in-vehicle camera, and the visibility and safety of far away Improvement is expected.

特許第5423631号公報Japanese Patent No. 5423363

特許文献1に代表される、近赤外光を投光する投光器を有する車載カメラシステムにおいて、より遠方の視認性を高める観点から、投光器から投光される近赤外光を例えば100m程度の遠方まで届かせていた。これは投光器から投光される近赤外光を絞り込むことでもあるので、結果的に投光器からの近赤外光が届く範囲、つまり近赤外光の照射角を狭めることにもなる。   In a vehicle-mounted camera system having a projector that projects near infrared light, as typified by Patent Document 1, near infrared light projected from the projector is, for example, about 100 m away It was reaching. This also narrows down the near-infrared light projected from the projector, and as a result, the range in which the near-infrared light from the projector reaches, that is, the irradiation angle of the near-infrared light is also narrowed.

従って、投光器からの近赤外光が届かない範囲に位置する対象物にまで十分に近赤外光が届かない可能性があり、この対象物を車載カメラシステムにより認識しにくいことがあり得る。   Therefore, there is a possibility that the near-infrared light does not sufficiently reach an object located in a range where the near-infrared light from the projector does not reach, and this object may be difficult to recognize by the in-vehicle camera system.

そこで、本発明は、対象物の認識可能範囲を拡大することが可能な画像処理装置及び画像処理方法を提供することを目的としている。   Therefore, an object of the present invention is to provide an image processing apparatus and an image processing method capable of expanding the recognizable range of an object.

前記目的を達成するために、本発明の画像処理装置は、車両の周辺に向けて赤外光を照射する赤外光照射部と、車両の周辺の赤外光画像を撮像して赤外光画像信号を出力する撮像部と、赤外光画像信号に基づいて、赤外光画像内において第一の対象物が撮像された第一の領域を認識し、この第一の領域に関する赤外光画像内の第一の位置情報を出力する認識部とを有し、撮像部が、第一の位置情報に基づいて、赤外光画像内において第一の領域の第一の輝度よりも低い輝度を有する第二の領域の第二の輝度を、第一の輝度に基づいて調整する輝度調整部を有することを特徴とする。   In order to achieve the above object, an image processing apparatus according to the present invention includes an infrared light irradiator that irradiates infrared light toward the periphery of a vehicle, and an infrared light image obtained by capturing an infrared light image around the vehicle. Based on the imaging unit that outputs the image signal and the infrared light image signal, the first region where the first object is imaged in the infrared light image is recognized, and the infrared light related to the first region is recognized. A recognition unit that outputs first position information in the image, and the imaging unit has a luminance lower than the first luminance of the first region in the infrared image based on the first position information The second area of the second area having a brightness adjustment section that adjusts the second brightness based on the first brightness.

このように構成された本発明の画像処理装置では、輝度調整部が、認識部から出力された第一の位置情報に基づいて、赤外光画像内において第一の領域の第一の輝度よりも低い輝度を有する第二の領域の第二の輝度を、第一の輝度に基づいて調整している。   In the image processing apparatus of the present invention configured as described above, the brightness adjustment unit is configured to use the first brightness of the first region in the infrared light image based on the first position information output from the recognition unit. The second luminance of the second region having a lower luminance is adjusted based on the first luminance.

このようにすることで、対象物の認識可能範囲を拡大することが可能となる。   By doing in this way, it becomes possible to expand the recognizable range of an object.

本発明の実施の形態である画像処理装置が適用される車載カメラシステムの概略構成を示す図である。1 is a diagram illustrating a schematic configuration of an in-vehicle camera system to which an image processing apparatus according to an embodiment of the present invention is applied. 実施の形態である画像処理装置の撮像部及び認識部を示すブロック図である。It is a block diagram which shows the imaging part and recognition part of the image processing apparatus which is embodiment. 実施の形態である画像処理装置の撮像部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging part of the image processing apparatus which is embodiment. 実施の形態である画像処理装置の信号処理部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the signal processing part of the image processing apparatus which is embodiment. 実施の形態である画像処理装置の認識部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the recognition part of the image processing apparatus which is embodiment. 実施の形態である画像処理装置の概略構成を示す機能ブロック図である。1 is a functional block diagram illustrating a schematic configuration of an image processing apparatus according to an embodiment. 実施の形態である画像処理装置の動作を説明するためのフローチャートである。3 is a flowchart for explaining the operation of the image processing apparatus according to the embodiment. 実施の形態である画像処理装置の輝度調整動作を説明するためのフローチャートである。4 is a flowchart for explaining a brightness adjustment operation of the image processing apparatus according to the embodiment. 実施の形態である画像処理装置による輝度調整前の画像の一例を示す図である。It is a figure which shows an example of the image before the brightness adjustment by the image processing apparatus which is embodiment. 実施の形態である画像処理装置による輝度調整後の画像の一例を示す図である。It is a figure which shows an example of the image after the brightness adjustment by the image processing apparatus which is embodiment. 実施の形態である画像処理装置の撮像部及び認識部の他の例を示すブロック図である。It is a block diagram which shows the other example of the imaging part and recognition part of the image processing apparatus which is embodiment.

以下、この発明の実施の形態を図面に基づいて説明する。図1は、本発明の実施の形態である画像処理装置が適用される車載カメラシステムの概略構成を示す図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a schematic configuration of an in-vehicle camera system to which an image processing apparatus according to an embodiment of the present invention is applied.

なお、本明細書の記載において、「赤外」という用語を「近赤外」と同等に用いることがある。   In the description of this specification, the term “infrared” may be used in the same way as “near infrared”.

本実施の形態である車載カメラシステムSは、この車載カメラシステムSが搭載されている車両Vの進行方向前方(図中左方)に向けて近赤外光を含む光を投光する投光器(赤外光照射部)1と、車両の進行方向前方の近赤外光画像を撮像して近赤外光画像信号を出力するカメラ(撮像部)2と、このカメラ2から出力される近赤外光画像信号に基づいて、近赤外光画像内に撮像された対象物を認識する認識部3と、認識部3による認識結果が入力されるECU(エンジンコントロールユニット:Engine Control Unit)等の車両制御部4とを有する。   The in-vehicle camera system S according to the present embodiment is a projector that projects light including near-infrared light toward the front of the vehicle V in which the in-vehicle camera system S is mounted (left side in the figure). Infrared light irradiation unit) 1, a camera (imaging unit) 2 that captures a near-infrared light image in front of the vehicle in the traveling direction and outputs a near-infrared light image signal, and a near-red light output from this camera Based on the external light image signal, a recognition unit 3 that recognizes an object captured in the near-infrared light image, and an ECU (Engine Control Unit) that receives a recognition result by the recognition unit 3 And a vehicle control unit 4.

そして、本発明の実施の形態である画像処理装置5は、投光器1、カメラ2及び認識部3を少なくとも有する。   The image processing apparatus 5 according to the embodiment of the present invention includes at least a projector 1, a camera 2, and a recognition unit 3.

本実施形態に係る画像処理装置5は、投光器1、及び後述するカメラ2の光学系20、光学フィルタ21を除き、CPU、FPGAなどのプログラマブルロジックデバイス、ASIC等の集積回路に代表される演算素子、及び、ハードディスクドライブ等の大容量記憶媒体やROM、RAM等の半導体記憶媒体などの記憶媒体、さらには外部機器との間のインタフェース回路を有する。ここで、本実施の形態では、画像処理装置5を構成するカメラ2及び認識部3は一体の演算素子、記憶媒体及びインタフェース回路を有するものとして説明するが、これらが別体の演算素子等により構成されていてもよい。   The image processing apparatus 5 according to the present embodiment is an arithmetic element represented by an integrated circuit such as a programmable logic device such as a CPU or FPGA, an integrated circuit such as an ASIC, except for the projector 1 and an optical system 20 and an optical filter 21 of a camera 2 described later. And a large-capacity storage medium such as a hard disk drive, a storage medium such as a semiconductor storage medium such as ROM and RAM, and an interface circuit with an external device. Here, in the present embodiment, the camera 2 and the recognition unit 3 constituting the image processing apparatus 5 are described as having an integral arithmetic element, a storage medium, and an interface circuit. It may be configured.

カメラ2、認識部3には図示しない記憶媒体があり、制御用プログラムが格納されている。この制御用プログラムが車載カメラシステムSの起動時に演算素子により実行されて、画像処理装置5は図2〜図6に示すような機能構成を備えたものとなる。特に、本実施形態の画像処理装置5は、後述するように高速の画像処理を行うので、高速演算可能な演算素子、例えばFPGAなどを有することが好ましい。   The camera 2 and the recognition unit 3 have a storage medium (not shown) and store a control program. The control program is executed by the arithmetic element when the in-vehicle camera system S is activated, and the image processing apparatus 5 has a functional configuration as shown in FIGS. In particular, since the image processing apparatus 5 according to the present embodiment performs high-speed image processing as will be described later, it is preferable that the image processing apparatus 5 includes an arithmetic element capable of high-speed calculation, such as an FPGA.

投光器1は、近赤外光を含む光を車両Vの進行方向前方に投光するものであり、一例として、一般的に車両Vに搭載されているヘッドライトに、単一または複数の発光ダイオード(LED)等の近赤外光を放射する近赤外光源を併設したものである。当然、単一種類の発光ダイオード等の光源により可視光から近赤外光までの波長帯域を有する光を放射する構成であってもよい。   The projector 1 projects light including near-infrared light forward in the traveling direction of the vehicle V. As an example, a single or a plurality of light-emitting diodes are generally mounted on a headlight mounted on the vehicle V. A near-infrared light source that emits near-infrared light such as (LED) is also provided. Of course, a configuration in which light having a wavelength band from visible light to near infrared light is emitted by a light source such as a single type of light emitting diode may be used.

この投光器1は、可視光及び近赤外光それぞれに所定の放射角をもってこれら可視光等を放射する。近赤外光の放射角は、既に説明したように、可視光の放射角より狭くされており、これにより、可視光よりも近赤外光のほうが遠方まで光が届くように構成されている。   The projector 1 emits visible light and the like with a predetermined radiation angle for each of visible light and near-infrared light. As described above, the emission angle of near-infrared light is narrower than the emission angle of visible light, so that near-infrared light can reach farther than visible light. .

本実施の形態である画像処理装置5では、図2に示すように、カメラ2は車両V前方の近赤外光画像を撮像して近赤外光画像信号を認識部3に出力する。認識部3はこの近赤外光画像内において人物等の対象物が撮像された領域を既知の画像認識手法を用いて認識し、その認識結果を領域の位置情報として出力する。認識部3から出力された位置情報は、例えばCAN(Controller Area Network)により車両制御部4に送信されて車両Vの走行制御に用いられる一方、カメラ2にもフィードバックされて後述する輝度調整処理等に用いられる。   In the image processing apparatus 5 according to the present embodiment, as shown in FIG. 2, the camera 2 captures a near-infrared light image in front of the vehicle V and outputs a near-infrared light image signal to the recognition unit 3. The recognizing unit 3 recognizes a region where an object such as a person is imaged in the near-infrared light image using a known image recognition method, and outputs the recognition result as position information of the region. The positional information output from the recognition unit 3 is transmitted to the vehicle control unit 4 by, for example, a CAN (Controller Area Network) and used for travel control of the vehicle V, while being fed back to the camera 2 to be described later, for example, brightness adjustment processing Used for.

カメラ2は、図3に示すように、光学系20、光学フィルタ21、センサ22及び信号処理部23を有する。   As shown in FIG. 3, the camera 2 includes an optical system 20, an optical filter 21, a sensor 22, and a signal processing unit 23.

光学系20は、レンズやミラー等の光学素子から構成されて、被写体から出射した光または被写体で反射した光を、後述するセンサ22の図略の撮像面に結像させる光学系である。光学系20は、車載カメラシステムSの場合には、一般に狭角、広角、魚眼等のパンフォーカスレンズが用いられる。さらに、ズーム機構やオートフォーカス機構を備えたレンズ系が用いられてもよいし、絞りやシャッターを備えたレンズ系が用いられてもよい。また、画質や色再現性の向上のために光学ローパスフィルタや帯域分離フィルタや偏光フィルタ等の各種フィルタ類を備えたレンズ系が用いられてもよい。   The optical system 20 includes an optical element such as a lens or a mirror, and forms an image of light emitted from a subject or reflected from the subject on an imaging surface (not shown) of a sensor 22 described later. In the case of the in-vehicle camera system S, the optical system 20 is generally a pan focus lens such as a narrow angle, a wide angle, and a fisheye. Further, a lens system including a zoom mechanism or an autofocus mechanism may be used, or a lens system including an aperture or a shutter may be used. In order to improve image quality and color reproducibility, a lens system including various filters such as an optical low-pass filter, a band separation filter, and a polarization filter may be used.

センサ22は複数の画素から構成されており、光学系20によりその撮像面に結像された被写体の像に基づく入射光を、その輝度に応じた出力電圧信号に光電変換する。光電変換された出力電圧信号は、センサ22の内部に備えられたアンプ(図示省略)、更に同じくセンサ22の内部に備えたADコンバータ(図示省略)を通してデジタル化されて、出力信号RAWが生成される。   The sensor 22 is composed of a plurality of pixels, and photoelectrically converts incident light based on the subject image formed on the imaging surface by the optical system 20 into an output voltage signal corresponding to the luminance. The photoelectrically converted output voltage signal is digitized through an amplifier (not shown) provided in the sensor 22 and further an AD converter (not shown) provided in the sensor 22 to generate an output signal RAW. The

センサ22としては、少なくとも近赤外光に対して感度を有するCMOSイメージセンサやCCDイメージセンサ等の光電変換素子が用いられる。本実施の形態では、センサ22は所定のフレームレート(例えば1/30秒、1/60秒)で車両Vの進行方向前方の近赤外光画像を撮像し、出力信号を信号処理部23に送出する。   As the sensor 22, a photoelectric conversion element such as a CMOS image sensor or a CCD image sensor having sensitivity to at least near infrared light is used. In the present embodiment, the sensor 22 captures a near-infrared light image ahead of the traveling direction of the vehicle V at a predetermined frame rate (for example, 1/30 seconds, 1/60 seconds), and outputs an output signal to the signal processing unit 23. Send it out.

なお、センサ22を構成する各画素の上には、一例として透過する波長帯域が異なる4種類のフィルタ(赤色フィルタR、緑色フィルタG、青色フィルタB、透明フィルタC)がそれぞれ規則的に配列され、これら4種類のフィルタにより光学フィルタ21が構成されている。但し、光学フィルタ21の構成は、センサ22からの出力信号RAWに近赤外光成分が含まれるものであれば既知のものが適用可能である。   For example, four types of filters (red filter R, green filter G, blue filter B, and transparent filter C) having different transmission wavelength bands are regularly arranged on each pixel constituting the sensor 22. These four types of filters constitute the optical filter 21. However, the configuration of the optical filter 21 may be a known one as long as the output signal RAW from the sensor 22 includes a near infrared light component.

信号処理部23は、センサ22に対して撮像を行うタイミングを指示するとともに、センサ22で撮像された出力信号RAWを受けて各種信号処理を行い、この信号処理の結果である近赤外光画像信号を出力する。既に説明したように、信号処理部23から出力された近赤外光画像信号は認識部3に入力されるとともに、この認識部3からは対象物が撮像された領域の位置情報がフィードバックされ、信号処理部23における輝度調整処理等に用いられる。   The signal processing unit 23 instructs the sensor 22 to perform imaging, receives the output signal RAW imaged by the sensor 22, performs various signal processing, and a near-infrared light image that is a result of this signal processing. Output a signal. As already described, the near-infrared light image signal output from the signal processing unit 23 is input to the recognition unit 3, and the position information of the region where the object is imaged is fed back from the recognition unit 3. It is used for luminance adjustment processing in the signal processing unit 23.

さらに、信号処理部23は、各種信号処理の結果に基づいていわゆる自動露出(AE:Automatic Exposure)制御信号をセンサ22に送出する。センサ22は、信号処理部23からの撮像タイミングに基づいて、自動露出制御信号に従ったシャッタースピード等による撮像動作を行う。   Further, the signal processing unit 23 sends a so-called automatic exposure (AE) control signal to the sensor 22 based on the results of various signal processing. The sensor 22 performs an imaging operation with a shutter speed or the like according to the automatic exposure control signal based on the imaging timing from the signal processing unit 23.

信号処理部23は、図3に示すように、入力制御部230、ノイズ除去部231、画素補間部232、ホワイトバランス処理部233、輝度調整部234及び出力制御部235を有する。   As illustrated in FIG. 3, the signal processing unit 23 includes an input control unit 230, a noise removal unit 231, a pixel interpolation unit 232, a white balance processing unit 233, a luminance adjustment unit 234, and an output control unit 235.

入力制御部230は、センサ22から出力された出力信号RAWを受け入れ、これをノイズ除去部231及びその後段に送出する。また、入力制御部230は、輝度調整部234などが検出した近赤外光画像信号の輝度レベル等を受け入れ、これに基づいて自動露出制御信号を生成してセンサ22に送出する。   The input control unit 230 receives the output signal RAW output from the sensor 22 and sends it to the noise removal unit 231 and the subsequent stage. Further, the input control unit 230 receives the luminance level of the near-infrared light image signal detected by the luminance adjustment unit 234 and the like, generates an automatic exposure control signal based on this, and sends it to the sensor 22.

ノイズ除去部231は、センサ22からの出力信号RAWに含まれるノイズを既知の手法により低減、除去する。   The noise removing unit 231 reduces and removes noise included in the output signal RAW from the sensor 22 by a known method.

画素補間部232は、ノイズ除去部231の出力であるノイズ除去された出力信号RAWを、出力信号RAWを構成する各色に対応する4つの色信号(R,G,B,C)に分離する。このとき、信号がない画素は出力を0(空白)とする。次いで、画素補間部232は、空白の画素において観測されると予想される画素値を、近傍の画素値を用いて線形補間する。そして、全ての画素において、それぞれ4つの色信号(R,G,B,C)を生成する。さらに、画素補間部232は、既知のリニアマトリクス演算により色信号補正処理を行う。   The pixel interpolation unit 232 separates the noise-removed output signal RAW that is the output of the noise removal unit 231 into four color signals (R, G, B, and C) corresponding to the respective colors that constitute the output signal RAW. At this time, the output of a pixel having no signal is 0 (blank). Next, the pixel interpolation unit 232 linearly interpolates the pixel values expected to be observed in the blank pixels using the neighboring pixel values. Then, four color signals (R, G, B, C) are generated in all the pixels. Further, the pixel interpolation unit 232 performs color signal correction processing by a known linear matrix calculation.

ホワイトバランス処理部233は、画素補間部232から出力された色信号(R,G,B,C)それぞれに対し、色温度に応じた補正係数を乗算することで色信号に対するホワイトバランス処理を行う。   The white balance processing unit 233 performs white balance processing on the color signal by multiplying each color signal (R, G, B, C) output from the pixel interpolation unit 232 by a correction coefficient corresponding to the color temperature. .

輝度調整部234は、画素補間部232からの出力色信号の輝度レベル等を検出し、検出した輝度レベル等に基づいて、既知の手法であるAGC(自動利得制御:Automatic Gain Control)などにより出力信号の輝度のゲイン(利得)を調整し、さらに、規定のガンマカーブに基づいてガンマ処理を行う。加えて、輝度調整部234は、本実施の形態独特の輝度調整処理を行うが、これについては後に詳述する。   The luminance adjustment unit 234 detects the luminance level of the output color signal from the pixel interpolation unit 232 and outputs the detected luminance level based on the detected luminance level and the like by using a known technique such as AGC (Automatic Gain Control). The gain (gain) of the luminance of the signal is adjusted, and further gamma processing is performed based on a specified gamma curve. In addition, the luminance adjustment unit 234 performs luminance adjustment processing unique to the present embodiment, which will be described in detail later.

出力制御部235は、ホワイトバランス処理部233からの出力色信号及び輝度調整部234により調整された輝度信号を合成し、近赤外光画像信号として認識部3に送出する。また、出力制御部235は、認識部3から対象物が撮像された領域の位置情報を受け入れ、この位置情報を輝度調整部234に送出する。   The output control unit 235 synthesizes the output color signal from the white balance processing unit 233 and the luminance signal adjusted by the luminance adjustment unit 234 and sends the synthesized signal to the recognition unit 3 as a near-infrared light image signal. Further, the output control unit 235 receives position information of the area where the object is imaged from the recognition unit 3 and sends the position information to the luminance adjustment unit 234.

認識部3は、図5に示すように、入出力制御部30と検知部31とを有する。   As shown in FIG. 5, the recognition unit 3 includes an input / output control unit 30 and a detection unit 31.

入出力制御部30は、カメラ2からの出力である近赤外光画像信号を受け入れ、これを検知部31に送出する。また、入出力制御部30は、検知部31からの出力である、対象物が撮像された領域の位置情報を受け入れ、これをカメラ2に送出する。   The input / output control unit 30 receives a near-infrared light image signal that is an output from the camera 2 and sends it to the detection unit 31. Further, the input / output control unit 30 receives position information of an area where the object is imaged, which is an output from the detection unit 31, and sends it to the camera 2.

検知部31は、カメラ2が撮像した近赤外光画像内に人物等の対象物が撮像されていると、対象物が撮像された領域を検知し、この領域に関する近赤外光画像内の位置情報を出力する。検知部31による対象物検知(認識)手法は公知のものでよく、一例として、HoG(Histogram of Oriented Gradients)特徴量を算出し、この特徴量に基づいて対象物を認識する手法が挙げられる。ここに、HoGとは、局所領域(セル)の輝度の勾配方向をヒストグラム化したものであり、対象物の輪郭抽出に用いることができる。   When an object such as a person is imaged in the near-infrared light image captured by the camera 2, the detection unit 31 detects an area where the object is imaged, and in the near-infrared light image related to this area Output location information. An object detection (recognition) technique by the detection unit 31 may be a known technique. As an example, a technique of calculating a HoG (Histogram of Oriented Gradients) feature value and recognizing the object based on the feature value is given. Here, HoG is a histogram of the luminance gradient direction of the local region (cell), and can be used for extracting the contour of the object.

検知部31は、撮像された対象物を認識した結果として、対象物が撮像された関心領域(ROI:Region Of Interest)に関する近赤外光画像内の位置情報(ROI情報)を出力する。この位置情報は、一例として近赤外光画像内の対象物の位置座標値として、x_start(水平座標の開始値)、y_start(垂直座標の開始値)、x_end(水平座標の終了値)、及びy_end(垂直座標の終了値)で表される。領域が矩形であるならば、座標(x_start,y_start)は矩形領域の左下位置に相当し、座標(x_end,y_end)は矩形領域の右上位置に相当する。   As a result of recognizing the captured object, the detection unit 31 outputs position information (ROI information) in the near-infrared light image related to the region of interest (ROI) where the object is captured. This position information includes, as an example, position coordinate values of an object in the near-infrared light image, x_start (start value of horizontal coordinates), y_start (start value of vertical coordinates), x_end (end value of horizontal coordinates), and It is expressed by y_end (end value of vertical coordinate). If the area is rectangular, the coordinates (x_start, y_start) correspond to the lower left position of the rectangular area, and the coordinates (x_end, y_end) correspond to the upper right position of the rectangular area.

HoG特徴量を用いた対象物認識であると、検知部31は対象物の輪郭を抽出し、この輪郭により囲まれた領域を検知できるので、検知領域(認識領域)が必ずしも矩形領域である必要はないが、本実施の形態である画像処理装置5では、検知部31は近赤外光画像内において対象物が撮像された領域を含む矩形領域を認識し、この矩形領域に関する位置情報を出力するものとする。   In the case of object recognition using the HoG feature amount, the detection unit 31 can extract the outline of the object and detect the area surrounded by the outline, and thus the detection area (recognition area) is necessarily a rectangular area. However, in the image processing apparatus 5 according to the present embodiment, the detection unit 31 recognizes a rectangular area including the area where the object is imaged in the near-infrared light image, and outputs position information regarding the rectangular area. It shall be.

また、検知部31は、認識した対象物が撮像されている領域よりも外側にやや広げた領域(例えば数画素分)について位置情報を出力する。どの程度広げるかについては任意に設定可能である。加えて、画像の中央部分と周辺部分とでは車両Vの車速に伴う変化が大きいと考えられるので、周辺部分については中央部分よりも広げる画素数を多くしてもよい。   In addition, the detection unit 31 outputs position information for a region (for example, several pixels) slightly expanded outside the region where the recognized object is imaged. The degree of expansion can be arbitrarily set. In addition, since it is considered that the change with the vehicle speed of the vehicle V is large between the central portion and the peripheral portion of the image, the number of pixels to be expanded in the peripheral portion may be larger than that in the central portion.

なお、検知部31は、近赤外光画像内に対象物を認識できなかったとき、位置情報としてx_start=y_start=x_end=y_end=0を出力する。   Note that the detection unit 31 outputs x_start = y_start = x_end = y_end = 0 as position information when the object cannot be recognized in the near-infrared light image.

次に、図6は、本実施の形態である画像処理装置5の概略構成を示す機能ブロック図である。図6に示す各機能構成手段については既に説明した内容を含むので、既に説明した内容については適宜省略する。   Next, FIG. 6 is a functional block diagram showing a schematic configuration of the image processing apparatus 5 according to the present embodiment. Since each function configuration unit shown in FIG. 6 includes the already described contents, the already described contents are appropriately omitted.

本実施の形態である画像処理装置5は、赤外光照射部(投光器)1、撮像部(カメラ)2、及び認識部3を少なくとも有する。   The image processing apparatus 5 according to the present embodiment includes at least an infrared light irradiation unit (projector) 1, an imaging unit (camera) 2, and a recognition unit 3.

赤外光照射部1は、車両Vの周辺に向けて近赤外光を照射する。   The infrared light irradiation unit 1 irradiates near infrared light toward the periphery of the vehicle V.

撮像部2は、車両Vの周辺の近赤外光画像を撮像して近赤外光画像信号を出力する。撮像部2はセンサ22と信号処理部23とを有し、この信号処理部23は輝度調整部234を有する。   The imaging unit 2 captures a near-infrared light image around the vehicle V and outputs a near-infrared light image signal. The imaging unit 2 includes a sensor 22 and a signal processing unit 23, and the signal processing unit 23 includes a luminance adjustment unit 234.

認識部3は、撮像部2から出力された近赤外光画像信号に基づいて、近赤外光画像内において第一の対象物が撮像された第一の領域を認識し、この第一の領域に関する近赤外光画像内の第一の位置情報を出力する。   The recognition unit 3 recognizes the first region where the first object is imaged in the near-infrared light image based on the near-infrared light image signal output from the imaging unit 2, and the first region First position information in the near-infrared light image relating to the region is output.

そして、輝度調整部234は、認識部3が出力した第一の位置情報に基づいて、近赤外光画像内において第一の領域の第一の輝度よりも低い輝度を有する第二の領域の第二の輝度を、第一の輝度に基づいて調整する。   Then, the luminance adjustment unit 234 is based on the first position information output by the recognition unit 3, and the second region having a luminance lower than the first luminance of the first region in the near-infrared light image. The second luminance is adjusted based on the first luminance.

ここで、輝度調整部234は、第一の位置情報に基づいて、近赤外光画像内において第一の輝度と略同一の輝度を有し、かつ、第一の領域及び第二の領域のいずれとも異なる第三の領域の輝度を、近赤外光画像信号に係る第三の領域の輝度より下げる。   Here, the luminance adjustment unit 234 has substantially the same luminance as the first luminance in the near-infrared light image based on the first position information, and the first region and the second region. The brightness of the third region, which is different from each other, is made lower than the brightness of the third region related to the near-infrared light image signal.

また、認識部3は、近赤外光画像内において、第一の輝度より低い輝度を有する第二の対象物が撮像された第四の領域を認識し、この第四の領域に関する近赤外光画像内の第二の位置情報を出力し、輝度調整部234は、第二の位置情報に基づいて第四の領域の輝度を近赤外光画像信号に係る第四の領域の輝度より上げる。   In addition, the recognition unit 3 recognizes the fourth region in which the second object having a luminance lower than the first luminance is imaged in the near-infrared light image, and the near-infrared regarding the fourth region. The second position information in the light image is output, and the brightness adjusting unit 234 increases the brightness of the fourth area based on the second position information from the brightness of the fourth area related to the near-infrared light image signal. .

さらに、撮像部2のセンサ22はフレーム単位の近赤外光画像信号を生成し、画像処理装置5は第一の位置情報及び第一の輝度がフレーム単位で格納される記憶部6を有し、輝度調整部234は、記憶部6に格納されている直近のフレームに係る第一の位置情報及び第一の輝度を読み出し、輝度調整を行うフレームに係る第一の輝度を直近のフレームに係る第一の輝度に調整する。   Further, the sensor 22 of the imaging unit 2 generates a near-infrared light image signal in units of frames, and the image processing device 5 includes a storage unit 6 in which the first position information and the first luminance are stored in units of frames. The luminance adjustment unit 234 reads the first position information and the first luminance related to the most recent frame stored in the storage unit 6 and relates the first luminance related to the frame for which the luminance adjustment is performed to the latest frame. Adjust to the first brightness.

なお、認識部3及び輝度調整部234の動作の詳細、及び、第一〜第四の領域、第一、第二の輝度の定義については後に詳述する。   The details of the operations of the recognition unit 3 and the luminance adjustment unit 234 and the definitions of the first to fourth areas and the first and second luminances will be described in detail later.

次に、図9及び図10を参照して、本実施の形態である画像処理装置5の認識部3及び輝度調整部234の動作の概要について説明する。   Next, an overview of operations of the recognition unit 3 and the luminance adjustment unit 234 of the image processing apparatus 5 according to the present embodiment will be described with reference to FIGS.

認識部3による対象物認識処理の結果、近赤外光画像内に対象物が撮像されていない(対象物を認識できない)ために位置情報(ROI情報)が出力されないとき、輝度調整部234は、AGC等により出力信号のゲイン調整を行い、さらにガンマ処理を行った結果を出力する。このように輝度調整部234により一般的な輝度調整等が行われた近赤外光画像信号は認識部3に入力され、再度認識部3による対象物認識処理が行われる。   As a result of the object recognition process by the recognition unit 3, when the position information (ROI information) is not output because the object is not captured in the near-infrared light image (the object cannot be recognized), the luminance adjustment unit 234 The gain of the output signal is adjusted by AGC or the like, and the result of further gamma processing is output. The near-infrared light image signal that has been subjected to general brightness adjustment or the like by the brightness adjustment unit 234 in this way is input to the recognition unit 3, and object recognition processing by the recognition unit 3 is performed again.

また、画像処理装置5の起動時においても認識部3による対象物認識処理が行われていないので、このときも輝度調整部234は、AGC等により出力信号のゲイン調整を行い、さらにガンマ処理を行った結果を出力する。   In addition, since the object recognition processing by the recognition unit 3 is not performed even when the image processing device 5 is started up, the luminance adjustment unit 234 also performs gain adjustment of the output signal by AGC or the like, and further performs gamma processing. Output the result.

また、輝度調整部234は、画素単位の近赤外光画像信号の輝度の差分に基づいて、近赤外光画像の領域判定を行う。より詳細には、輝度調整部234は、特定画素の近赤外光画像信号の輝度とこの特定画素の水平方向の隣に位置する画素の近赤外光画像信号の輝度との差分を算出し、この差分に基づいて輝度値が閾値を超える箇所を判定してフラグを立て、この判定結果に基づいて近赤外光画像を輝度値が異なる複数の領域に区分する。   In addition, the luminance adjustment unit 234 determines the region of the near-infrared light image based on the difference in luminance of the near-infrared light image signal in units of pixels. More specifically, the brightness adjusting unit 234 calculates the difference between the brightness of the near-infrared light image signal of the specific pixel and the brightness of the near-infrared light image signal of the pixel located next to the specific pixel in the horizontal direction. Based on this difference, a location where the luminance value exceeds the threshold is determined and a flag is set. Based on the determination result, the near-infrared light image is divided into a plurality of regions having different luminance values.

なお、ノイズの影響を受けにくくする観点から、輝度調整部234は、上述の閾値を超える画素が複数個続いたときにフラグを立てることもでき、また、水平方向のみならず垂直方向(上下方向)に隣り合う画素間の輝度値の差分に基づいても判定をすることができる。   From the viewpoint of making it less susceptible to noise, the brightness adjusting unit 234 can also set a flag when a plurality of pixels exceeding the above-mentioned threshold value continues, and also in the vertical direction (up and down direction) as well as the horizontal direction. The determination can also be made based on the difference in luminance value between adjacent pixels.

そして、輝度調整部234は、上述した領域判定の結果に基づいて、この領域の輝度調整を行う。   Then, the luminance adjustment unit 234 performs luminance adjustment of this region based on the result of the region determination described above.

まず、投光器1からの近赤外光が照射され、かつ、認識部3による対象物認識処理の結果、対象物が撮像された領域であると判定された領域については、輝度調整部234は輝度のゲインを調整しない(つまりゲインを固定する)。投光器1からの近赤外光が照射されているか否かの判定は、上述の領域判定により判定された領域の内、一定値以上の(つまり明るい)輝度値を有する領域であるかどうかにより行えばよい。このような領域については対象物認識処理を引き続き確実に行う観点から、ゲインを固定する。この領域が上述した第一の領域であり、第一の領域についての位置情報が第一の位置情報であり、第一の領域内に撮像された対象物が第一の対象物であり、領域の輝度が第一の輝度である。   First, the luminance adjustment unit 234 performs luminance adjustment for an area that is irradiated with near-infrared light from the projector 1 and is determined to be an area in which the object is imaged as a result of the object recognition processing by the recognition unit 3. Do not adjust the gain (that is, fix the gain). Whether or not the near-infrared light from the projector 1 is irradiated is determined depending on whether or not the region determined by the above-described region determination is a region having a luminance value equal to or higher than a certain value (that is, bright). Just do it. In such a region, the gain is fixed from the viewpoint of reliably performing the object recognition process. This area is the first area described above, the position information about the first area is the first position information, the object imaged in the first area is the first object, and the area Is the first luminance.

また、投光器1からの近赤外光が照射されているが、認識部3による対象物認識処理の結果、対象物が撮像された領域であると判定されていない領域については、光量は十分であると判断されるので、輝度調整部234は輝度のゲインを落とす(下げる)。つまり、明るく処理し過ぎることにより画像に白飛びと呼ばれる現象が生じることを抑制するために輝度調整を行う。この領域が上述した第三の領域である。ゲインを下げる量は任意に設定可能である。   Moreover, although the near-infrared light from the light projector 1 is irradiated, as a result of the object recognition process by the recognition part 3, the area | region where it is not determined that it is the area | region where the target object was imaged is enough. Since it is determined that there is, the luminance adjustment unit 234 decreases (decreases) the luminance gain. In other words, the brightness adjustment is performed in order to prevent the phenomenon called overexposure from occurring in the image due to excessively bright processing. This region is the third region described above. The amount to decrease the gain can be arbitrarily set.

さらに、投光器1からの近赤外光が照射されておらず、かつ、認識部3による対象物認識処理の結果、対象物が撮像された領域であると判定されていない領域については、輝度調整部234は、上述した第三の領域において輝度調整を行った輝度値と同等の輝度値にまでなるように輝度のゲインを上げる。これにより、認識部3による対象物認識処理がより確実に行えるようにする。この領域が上述した第二の領域であり、輝度調整を行う前の領域の輝度が第二の輝度である。   Furthermore, brightness adjustment is performed for a region that is not irradiated with near-infrared light from the projector 1 and is not determined to be a region in which the object is imaged as a result of the object recognition processing by the recognition unit 3. The unit 234 increases the luminance gain so that the luminance value is equivalent to the luminance value after the luminance adjustment is performed in the third region described above. Thus, the object recognition process by the recognition unit 3 can be performed more reliably. This region is the second region described above, and the luminance of the region before the luminance adjustment is the second luminance.

そして、投光器1からの近赤外光が照射されておらず、かつ、認識部3による対象物認識処理の結果、対象物が撮像された領域であると判定された領域については、この領域の輝度値が低いにもかかわらず対象物が撮像された領域であると判定されていることから、認識部3がノイズを対象物と判定している可能性と、認識部3が正しく対象物を判定している可能性とが併存している。そこで、輝度調整部234は、上述した第二の領域に対して上げたゲイン値の半分程度のゲイン値だけ、この領域の輝度のゲインを上げる。この領域が上述した第四の領域であり、第四の領域についての位置情報が第二の位置情報であり、第四の領域内に撮像された対象物が第二の対象物である。   And about the area | region which is not irradiated with the near-infrared light from the light projector 1, and was determined as an area | region where the target object was imaged as a result of the target object recognition process by the recognition part 3, about this area | region Since it is determined that the object is an imaged area even though the luminance value is low, there is a possibility that the recognition unit 3 determines that the noise is the object, and the recognition unit 3 correctly selects the object. The possibility of judging coexists. Therefore, the luminance adjustment unit 234 increases the luminance gain of this region by a gain value that is about half of the gain value increased for the second region described above. This area is the above-described fourth area, the position information about the fourth area is the second position information, and the object imaged in the fourth area is the second object.

以上説明した輝度調整部234による輝度調整を、輝度調整部234による輝度(ゲイン)調整前及び輝度(ゲイン)調整後の近赤外光画像を模式的にそれぞれ示した図9及び図10を参照して説明する。   FIG. 9 and FIG. 10 schematically showing the near-infrared light images before and after the luminance (gain) adjustment by the luminance adjustment unit 234, with respect to the luminance adjustment by the luminance adjustment unit 234 described above. To explain.

図9において、投光器1からの近赤外光が照射されている領域A1は第三の領域であり、この領域A1内において認識部3により対象物B1が認識された領域A2は第一の領域である。   In FIG. 9, a region A1 irradiated with near-infrared light from the projector 1 is a third region, and a region A2 in which the object B1 is recognized by the recognition unit 3 in the region A1 is a first region. It is.

領域A2を含む領域A1は、対象物B1をより確実に認識する観点から一定の輝度を確保することが好ましい。一方、近赤外光が照射されていない領域(後述する領域A3、A4)の輝度との間のコントラストをあまり大きくすると白飛びが生じてしまうので、領域A2については輝度のゲインを下げ、領域A1については次のフレームの画像においても確実な認識を引き続き行う観点から、輝度のゲインを調整しない。   The area A1 including the area A2 preferably secures a certain luminance from the viewpoint of more reliably recognizing the object B1. On the other hand, if the contrast with the brightness of areas not irradiated with near-infrared light (areas A3 and A4, which will be described later) is excessively increased, whiteout occurs, so that the brightness gain is reduced for area A2. With respect to A1, the luminance gain is not adjusted from the viewpoint of continuing reliable recognition in the image of the next frame.

一方、投光器1からの近赤外光が照射されていない領域A3は第二の領域である。図9に示すように、投光器1からの近赤外光は狭い範囲に絞ることで遠方まで近赤外光を届かせているため、相対的に領域A3が占める割合は大きくなる。一方で、道路の横から道路に歩いてくる歩行者のように、近赤外光を狭い範囲に絞ることで、こういった歩行者を対象物として認識するためには、この領域A3の輝度をある程度高くする必要がある。そこで、領域A3の輝度が輝度調整後の領域A2の輝度と同程度になるように、この領域A3の輝度のゲインを上げる。   On the other hand, the region A3 where the near-infrared light from the projector 1 is not irradiated is the second region. As shown in FIG. 9, since the near-infrared light from the projector 1 reaches the far-infrared light by narrowing it to a narrow range, the proportion of the area A3 is relatively large. On the other hand, in order to recognize such a pedestrian as an object by narrowing near-infrared light to a narrow range like a pedestrian walking from the side of the road, the brightness of this area A3 Needs to be raised to some extent. Therefore, the brightness gain of the area A3 is increased so that the brightness of the area A3 is approximately the same as the brightness of the area A2 after the brightness adjustment.

輝度調整部234による輝度調整後の近赤外光画像を図10に示す。なお、図9及び図10において、ハッチングの斜線の密度が高いほど輝度が暗いことを示している。領域A3の輝度のゲインを上げたことにより、図9において周囲の暗さに隠れていた対象物B2が視認しやすくなり、この結果、認識部3による対象物認識処理が容易となる。認識部3により対象物B2が認識されると、この対象物B2が認識された領域A4が第四の領域となる。また、領域A2と領域A3とのコントラスト比が抑えられ、領域A2において白飛びが発生することを抑制できる。   FIG. 10 shows a near-infrared light image after the luminance adjustment by the luminance adjustment unit 234. 9 and 10, it is shown that the luminance is darker as the density of hatched diagonal lines is higher. By increasing the luminance gain of the area A3, the object B2 hidden in the surrounding darkness in FIG. 9 is easily visible, and as a result, the object recognition process by the recognition unit 3 is facilitated. When the object B2 is recognized by the recognition unit 3, the area A4 in which the object B2 is recognized becomes the fourth area. Further, the contrast ratio between the region A2 and the region A3 can be suppressed, and occurrence of whiteout in the region A2 can be suppressed.

ここに、輝度調整部234による輝度(ゲイン)調整は、対象領域に含まれる画素の輝度値に対して一定値(これがゲインである)を乗算することにより行われる。つまり、線形変換による輝度調整である。あるいは、輝度値に一定値(通常これはオフセット値と呼ばれる)を加算することによって輝度調整を行ってもよい。当然、一定値を乗算するとともに他の一定値を加算する輝度調整を行ってもよい。さらに、対象領域に含まれる画素の輝度値のヒストグラムを作成し、このヒストグラムを所望の形状のヒストグラムに変換する(一例としてヒストグラム平滑化)ことにより輝度調整を行ってもよい。   Here, the luminance (gain) adjustment by the luminance adjustment unit 234 is performed by multiplying the luminance value of the pixel included in the target region by a certain value (this is a gain). That is, the brightness adjustment is performed by linear conversion. Alternatively, the luminance adjustment may be performed by adding a constant value (usually called an offset value) to the luminance value. Of course, brightness adjustment may be performed in which a constant value is multiplied and another constant value is added. Furthermore, luminance adjustment may be performed by creating a histogram of luminance values of pixels included in the target region and converting the histogram into a histogram having a desired shape (eg, histogram smoothing).

次に、本実施の形態である画像処理装置5の動作の詳細を図7及び図8のフローチャートを参照して説明する。なお、画像処理装置5を構成する各部の動作のうち、既に詳細に説明している動作については適宜省略する。   Next, details of the operation of the image processing apparatus 5 according to the present embodiment will be described with reference to the flowcharts of FIGS. Of the operations of the respective parts constituting the image processing apparatus 5, operations already described in detail are appropriately omitted.

図7のフローチャートに示す動作は、画像処理装置5の起動時(基本的に車両制御部4の起動時とほぼ同時)に開始する。まず、ステップS1では、カメラ2のセンサ22が車両V前方の近赤外光画像を撮像し、出力信号RAWを信号処理部23に送出する。ステップS2では、センサ22からの出力信号RAWを入力制御部230が受け入れる。   The operation shown in the flowchart of FIG. 7 starts when the image processing apparatus 5 is started (basically at the same time as when the vehicle control unit 4 is started). First, in step S <b> 1, the sensor 22 of the camera 2 captures a near-infrared light image in front of the vehicle V and sends an output signal RAW to the signal processing unit 23. In step S <b> 2, the input control unit 230 receives the output signal RAW from the sensor 22.

ステップS3では、センサ22からの出力信号RAWに対してノイズ除去部231がノイズ除去処理を行う。ステップS4では、画素補間部232が線形補間及び色補正処理を行う。   In step S <b> 3, the noise removal unit 231 performs noise removal processing on the output signal RAW from the sensor 22. In step S4, the pixel interpolation unit 232 performs linear interpolation and color correction processing.

ステップS5では、ステップS4において線形補間及び色補正処理がされた信号に対して輝度調整部234が近赤外光画像の領域判定を行い、さらに、ステップS6では、ステップS5における領域判定の結果も参照して輝度調整を行う。輝度調整の詳細なフローチャートについては後述する。   In step S5, the luminance adjustment unit 234 performs near-infrared light region determination on the signal that has undergone linear interpolation and color correction processing in step S4. Further, in step S6, the region determination result in step S5 is also determined. Refer to and adjust the brightness. A detailed flowchart of the brightness adjustment will be described later.

ステップS7では、ステップS4において線形補間及び色補正処理がされた信号に対してホワイトバランス処理部233がホワイトバランス処理を行う。   In step S7, the white balance processing unit 233 performs white balance processing on the signal that has undergone linear interpolation and color correction processing in step S4.

ステップS8では、出力制御部235が、ステップS6において輝度調整がされた輝度信号とステップS7においてホワイトバランス処理がされた色信号とを合成する。ステップS9では、出力制御部235が、ステップS8において合成された信号を近赤外光画像信号として認識部3に出力する。   In step S8, the output control unit 235 combines the luminance signal adjusted in luminance in step S6 and the color signal subjected to white balance processing in step S7. In step S9, the output control unit 235 outputs the signal synthesized in step S8 to the recognition unit 3 as a near infrared light image signal.

ステップS10では、認識部3の検知部31が、対象物検知処理アルゴリズムにより、近赤外光画像信号内に対象物が撮像されているかどうかの認識処理を行う。   In step S <b> 10, the detection unit 31 of the recognition unit 3 performs a recognition process as to whether or not the object is imaged in the near-infrared light image signal by the object detection processing algorithm.

そして、ステップS11では、ステップS10の結果、検知部31が対象物を認識できたか否かが判定され、対象物を認識できたと判定されたらプログラムはステップS12に移行し、対象物を認識できなかったと判定されたらプログラムはステップS13に移行する。   In step S11, it is determined whether or not the detection unit 31 has recognized the object as a result of step S10. If it is determined that the object has been recognized, the program proceeds to step S12 and the object cannot be recognized. If it is determined that the program has occurred, the program proceeds to step S13.

ステップS12では、検知部31が対象物の位置情報を出力し、ステップS13では検知部31が対象物を認識できなかったことを示す位置情報(上述の例ではx_start=y_start=x_end=y_end=0)を出力する。ステップS12またはステップS13において検知部31から出力された位置情報はステップS5における領域判定に用いられる。   In step S12, the detection unit 31 outputs position information of the object, and in step S13, position information indicating that the detection unit 31 has not recognized the object (in the above example, x_start = y_start = x_end = y_end = 0). ) Is output. The position information output from the detection unit 31 in step S12 or step S13 is used for region determination in step S5.

次に、図8は、図7のフローチャートのステップS6における、輝度調整部234による輝度調整動作の具体的内容を説明するためのフローチャートである。   Next, FIG. 8 is a flowchart for explaining specific contents of the brightness adjustment operation by the brightness adjustment unit 234 in step S6 of the flowchart of FIG.

まず、図7のステップS5において輝度調整部234が領域判定を行い、次いで、ステップS20では、認識部3から位置情報が出力されているか否かが判定される。そして、位置情報が出力されている(ステップS20においてYES)と判定されたらプログラムはステップS21に移行し、位置情報が出力されていない(ステップS20においてNO)と判定されたらプログラムはステップS32に移行する。   First, in step S5 in FIG. 7, the luminance adjustment unit 234 performs region determination, and then in step S20, it is determined whether or not position information is output from the recognition unit 3. If it is determined that position information is output (YES in step S20), the program proceeds to step S21. If it is determined that position information is not output (NO in step S20), the program proceeds to step S32. To do.

ステップS21では、図7のステップS5における領域判定の結果を用いて、輝度調整を行う特定の領域を抽出する。ステップS22では、記憶部6から1つ前のフレームにおける位置情報及びこの位置情報に係る輝度を読み出す。そして、ステップS21において抽出された領域が、1つ前のフレームにおいて認識部3が対象物を認識した領域であるか否かが判定される。そして、対象物が認識された領域である(ステップS22においてYES)と判定されたらプログラムはステップS23に移行し、対象物が認識された領域でない(ステップS22においてNO)と判定されたらプログラムはステップS24に移行する。   In step S21, a specific region for brightness adjustment is extracted using the result of region determination in step S5 of FIG. In step S22, the position information in the previous frame and the luminance related to the position information are read from the storage unit 6. And it is determined whether the area | region extracted in step S21 is an area | region where the recognition part 3 recognized the target object in the frame before one. If it is determined that the object is a recognized area (YES in step S22), the program proceeds to step S23. If it is determined that the object is not a recognized area (NO in step S22), the program The process proceeds to S24.

ステップS23では、抽出された領域の輝度を、1つ前のフレームにおける輝度に調整する。この後、プログラムはステップS33に移行する。   In step S23, the brightness of the extracted area is adjusted to the brightness in the previous frame. Thereafter, the program proceeds to step S33.

ステップS24では、抽出された領域を代表する輝度値を算出する。抽出された領域を代表する輝度値は、領域内の画素毎の輝度値のヒストグラムを作成し、このヒストグラムの中間値、または平均値とすることができる。   In step S24, a luminance value representative of the extracted area is calculated. The luminance value representing the extracted region can be set to an intermediate value or an average value of the histogram by creating a histogram of luminance values for each pixel in the region.

ステップS25では、ステップS24で算出した輝度値が閾値を超えるか否かが判定され、閾値を超える(ステップS25においてYES)と判定されたらプログラムはステップS26に移行し、閾値以下である(ステップS25においてNO)と判定されたらプログラムはステップS29に移行する。   In step S25, it is determined whether or not the luminance value calculated in step S24 exceeds the threshold value. If it is determined that the luminance value exceeds the threshold value (YES in step S25), the program proceeds to step S26, and is below the threshold value (step S25). If it is determined as NO), the program proceeds to step S29.

ステップS26では、ステップS21において抽出された領域が認識部3により対象物が認識された領域であるか否かが判定される。そして、そして、対象物が認識された領域である(ステップS26においてYES)と判定されたらプログラムはステップS27に移行し、対象物が認識された領域でない(ステップS26においてNO)と判定されたらプログラムはステップS28に移行する。   In step S <b> 26, it is determined whether or not the region extracted in step S <b> 21 is a region where the object is recognized by the recognition unit 3. If it is determined that the object is a recognized area (YES in step S26), the program proceeds to step S27. If it is determined that the object is not a recognized area (NO in step S26), the program is executed. Goes to step S28.

ステップS27では、抽出された領域の輝度値を調整しない(ゲインを固定する)。この後、プログラムはステップS33に移行する。一方、ステップS28では、抽出された領域の輝度値を所定値αだけ下げる。この所定値αは任意に設定可能である。この後、プログラムはステップS33に移行する。   In step S27, the brightness value of the extracted area is not adjusted (the gain is fixed). Thereafter, the program proceeds to step S33. On the other hand, in step S28, the luminance value of the extracted area is lowered by a predetermined value α. This predetermined value α can be arbitrarily set. Thereafter, the program proceeds to step S33.

一方、ステップS29でも、ステップS21において抽出された領域が認識部3により対象物が認識された領域であるか否かが判定される。そして、そして、対象物が認識された領域である(ステップS29においてYES)と判定されたらプログラムはステップS30に移行し、対象物が認識された領域でない(ステップS29においてNO)と判定されたらプログラムはステップS31に移行する。   On the other hand, also in step S29, it is determined whether or not the region extracted in step S21 is a region in which the object is recognized by the recognition unit 3. If it is determined that the object is a recognized area (YES in step S29), the program proceeds to step S30. If it is determined that the object is not a recognized area (NO in step S29), the program is executed. Moves to step S31.

ステップS30では、抽出された領域の輝度値を所定値γだけ上げる。この所定値γは、ステップS31における所定値βの半分程度に設定される。この後、プログラムはステップS33に移行する。一方、ステップS31では、抽出された領域の輝度値を所定値βだけ上げる。この所定値βは、調整後の輝度値がステップS28において所定値αだけ下げられた輝度値と同等となるように設定される。この後、プログラムはステップS33に移行する。   In step S30, the luminance value of the extracted area is increased by a predetermined value γ. This predetermined value γ is set to about half of the predetermined value β in step S31. Thereafter, the program proceeds to step S33. On the other hand, in step S31, the luminance value of the extracted area is increased by a predetermined value β. The predetermined value β is set so that the adjusted luminance value is equivalent to the luminance value lowered by the predetermined value α in step S28. Thereafter, the program proceeds to step S33.

一方、ステップS32では、近赤外光画像全体に対して一般的な輝度調整を行う。この後、プログラムはステップS32に移行する。   On the other hand, in step S32, general luminance adjustment is performed on the entire near-infrared light image. Thereafter, the program proceeds to step S32.

ステップS33では、領域判定された全ての領域について輝度調整が行われたか否かが判定され、全ての領域で輝度調整が行われた(ステップS33においてYES)と判定されたらプログラムは図7のステップS8に移行し、輝度調整が行われていない領域がある(ステップS33においてNO)と判定されたらプログラムはステップS34に移行し、ステップS34において次の領域を抽出した後、ステップS22に戻る。   In step S33, it is determined whether or not the luminance adjustment has been performed for all the regions determined, and if it is determined that the luminance adjustment has been performed for all the regions (YES in step S33), the program is the step of FIG. The process proceeds to S8, and if it is determined that there is an area where brightness adjustment has not been performed (NO in Step S33), the program proceeds to Step S34, and after the next area is extracted in Step S34, the process returns to Step S22.

以上のように構成された本実施形態の画像処理装置5では、認識部3による対象物認識処理の結果出力される第一の位置情報に基づいて、輝度調整部234が、近赤外光画像内において第一の領域の第一の輝度よりも低い輝度を有する第二の領域の第二の輝度を、第一の輝度に基づいて調整している。   In the image processing apparatus 5 of the present embodiment configured as described above, the brightness adjustment unit 234 is configured to display the near-infrared light image based on the first position information output as a result of the object recognition processing by the recognition unit 3. The second brightness of the second area having a lower brightness than the first brightness of the first area is adjusted based on the first brightness.

これにより、赤外光照射部1からの近赤外光が照射されていない領域の輝度を、近赤外光が照射されている領域の輝度に基づいて調整することができ、対象物の認識可能範囲を拡大することが可能な画像処理装置5を実現することができる。   Thereby, the brightness | luminance of the area | region where the near-infrared light from the infrared light irradiation part 1 is not irradiated can be adjusted based on the brightness | luminance of the area | region where the near-infrared light is irradiated, and object recognition The image processing apparatus 5 that can expand the possible range can be realized.

ここで、輝度調整部234は、第一の位置情報に基づいて、近赤外光画像内において第一の輝度と略同一の輝度を有し、かつ、第一の領域及び第二の領域のいずれとも異なる第三の領域の輝度を、近赤外光画像信号に係る第三の領域の輝度より下げるので、赤外光照射部1からの近赤外光が照射されているものの、対象物が認識されていない領域の輝度を下げることができ、これにより白飛び等が生じるのを抑制することができる。   Here, the luminance adjustment unit 234 has substantially the same luminance as the first luminance in the near-infrared light image based on the first position information, and the first region and the second region. Since the brightness of the third region, which is different from each other, is lower than the brightness of the third region related to the near-infrared light image signal, the near-infrared light from the infrared light irradiation unit 1 is irradiated, but the object Therefore, the brightness of the area in which the image is not recognized can be lowered, thereby suppressing the occurrence of whiteout or the like.

また、認識部3は、近赤外光画像内において、第一の輝度より低い輝度を有する第二の対象物が撮像された第四の領域を認識して、この第四の領域に関する近赤外光画像内の第二の位置情報を出力し、輝度調整部234は、第二の位置情報に基づいて第四の領域の輝度を近赤外光画像信号に係る第四の領域の輝度より上げているので、認識部3による対象物認識処理結果がノイズに基づく可能性と実際に対象物が認識された結果である可能性との両面を考慮して輝度調整を行うことができる。   The recognizing unit 3 recognizes a fourth region in which the second object having a luminance lower than the first luminance is imaged in the near-infrared light image, and a near red color related to the fourth region. The second position information in the external light image is output, and the brightness adjusting unit 234 determines the brightness of the fourth area based on the second position information from the brightness of the fourth area related to the near-infrared light image signal. Therefore, the brightness adjustment can be performed in consideration of both the possibility that the object recognition processing result by the recognition unit 3 is based on noise and the possibility that the object is actually recognized.

さらに、撮像部2のセンサ22はフレーム単位の近赤外光画像信号を生成し、記憶部6が第一の位置情報及び第一の輝度をフレーム単位で格納し、輝度調整部234が、記憶部6に格納されている直近のフレームに係る第一の位置情報及び第一の輝度を読み出し、輝度調整を行うフレームに係る第一の輝度を直近のフレームに係る第一の輝度に調整しているので、直近のフレームにおいて認識部3が認識した対象物に係る輝度を維持することができ、これにより、引き続き認識部3による対象物認識処理を確実に行うことができる。   Further, the sensor 22 of the imaging unit 2 generates a near-infrared light image signal for each frame, the storage unit 6 stores the first position information and the first luminance for each frame, and the luminance adjustment unit 234 stores the memory. The first position information and the first luminance related to the latest frame stored in the unit 6 are read out, and the first luminance related to the frame on which the luminance adjustment is performed is adjusted to the first luminance related to the latest frame. Therefore, it is possible to maintain the luminance related to the object recognized by the recognition unit 3 in the latest frame, and thus it is possible to reliably perform the object recognition process by the recognition unit 3 continuously.

以上、図面を参照して、本発明の実施の形態を詳述してきたが、具体的な構成は、この実施の形態及び実施例に限らず、本発明の要旨を逸脱しない程度の設計的変更は、本発明に含まれる。   The embodiment of the present invention has been described in detail above with reference to the drawings. However, the specific configuration is not limited to the embodiment and the example, and the design change is within a range not departing from the gist of the present invention. Are included in the present invention.

一例として、上述の実施の形態では、カメラ2と認識部3とは一体の演算素子等により構成されていたが、図11に示すように、画像処理用のECU7をカメラ2とは別体に設け、このECU7内に認識部3を設けてもよい。また、図6において、画像処理装置5の外に認識部3を配置してもよい。   As an example, in the above-described embodiment, the camera 2 and the recognition unit 3 are configured by an integral arithmetic element or the like, but the image processing ECU 7 is separated from the camera 2 as shown in FIG. It is also possible to provide the recognition unit 3 in the ECU 7. In FIG. 6, the recognition unit 3 may be disposed outside the image processing device 5.

S 車載カメラシステム
V 車両
1 投光器(赤外光照射部)
2 カメラ(撮像部)
3 認識部
5 画像処理装置
6 記憶部
22 センサ
23 信号処理部
234 輝度調整部
S In-vehicle camera system V Vehicle 1 Floodlight (infrared light irradiation part)
2 Camera (imaging part)
3 Recognition Unit 5 Image Processing Device 6 Storage Unit 22 Sensor 23 Signal Processing Unit 234 Brightness Adjustment Unit

Claims (5)

車両の周辺に向けて赤外光を照射する赤外光照射部と、
前記車両の周辺の赤外光画像を撮像して赤外光画像信号を出力する撮像部と、
前記赤外光画像信号に基づいて、前記赤外光画像内において第一の対象物が撮像された第一の領域を認識し、この第一の領域に関する前記赤外光画像内の第一の位置情報を出力する認識部とを有し、
前記撮像部は、前記第一の位置情報に基づいて、前記赤外光画像内において前記第一の領域の第一の輝度よりも低い輝度を有する第二の領域の第二の輝度を、前記第一の輝度に基づいて調整する輝度調整部を有することを特徴とする画像処理装置。
An infrared light irradiation unit that irradiates infrared light toward the periphery of the vehicle;
An imaging unit that captures an infrared light image around the vehicle and outputs an infrared light image signal;
Based on the infrared light image signal, the first region in which the first object is imaged is recognized in the infrared light image, and the first region in the infrared light image relating to the first region is recognized. A recognition unit that outputs position information;
The imaging unit, based on the first position information, the second luminance of the second region having a luminance lower than the first luminance of the first region in the infrared light image, An image processing apparatus comprising: a luminance adjusting unit that adjusts based on the first luminance.
前記輝度調整部は、前記第一の位置情報に基づいて、前記赤外光画像内において前記第一の輝度と略同一の輝度を有し、かつ、前記第一の領域及び前記第二の領域のいずれとも異なる第三の領域の輝度を、前記赤外光画像信号に係る前記第三の領域の輝度より下げることを特徴とする請求項1に記載の画像処理装置。   The brightness adjusting unit has a brightness substantially the same as the first brightness in the infrared light image based on the first position information, and the first area and the second area 2. The image processing apparatus according to claim 1, wherein the brightness of a third region different from any of the third regions is lower than the brightness of the third region related to the infrared light image signal. 前記認識部は、前記赤外光画像内において、前記第一の輝度より低い輝度を有する第二の対象物が撮像された第四の領域を認識し、この第四の領域に関する前記赤外光画像内の第二の位置情報を出力し、
前記輝度調整部は、前記第二の位置情報に基づいて前記第四の領域の輝度を前記赤外光画像信号に係る前記第四の領域の輝度より上げることを特徴とする請求項1または2に記載の画像処理装置。
The recognizing unit recognizes a fourth region in which the second object having a luminance lower than the first luminance is imaged in the infrared light image, and the infrared light related to the fourth region. Output the second position information in the image,
The brightness adjustment unit increases the brightness of the fourth area based on the second position information, compared to the brightness of the fourth area related to the infrared light image signal. An image processing apparatus according to 1.
前記撮像部はフレーム単位の前記赤外光画像信号を生成し、
前記第一の位置情報及び前記第一の輝度がフレーム単位で格納される記憶部を有し、
前記輝度調整部は、前記記憶部に格納されている直近の前記フレームに係る前記第一の位置情報及び前記第一の輝度を読み出し、輝度調整を行う前記フレームに係る前記第一の輝度を直近の前記フレームに係る前記第一の輝度に調整することを特徴とする請求項1〜3のいずれかに記載の画像処理装置。
The imaging unit generates the infrared image signal in frame units,
A storage unit that stores the first position information and the first luminance in units of frames;
The luminance adjustment unit reads the first position information and the first luminance related to the latest frame stored in the storage unit, and determines the first luminance related to the frame on which the luminance adjustment is performed. The image processing apparatus according to claim 1, wherein the first luminance relating to the frame is adjusted to the first luminance.
車両の周辺に向けて赤外光を照射する赤外光照射部と、
前記車両の周辺の赤外光画像を撮像して赤外光画像信号を出力する撮像部と
を有する画像処理装置における画像処理方法であって、
前記赤外光画像信号に基づいて、前記赤外光画像内において第一の対象物が撮像された第一の領域を認識し、この第一の領域に関する前記赤外光画像内の第一の位置情報を出力し、
前記第一の位置情報に基づいて、前記赤外光画像内において前記第一の領域の第一の輝度よりも低い輝度を有する第二の領域の第二の輝度を、前記第一の輝度に基づいて調整する
ことを特徴とする画像処理方法。
An infrared light irradiation unit that irradiates infrared light toward the periphery of the vehicle;
An image processing method in an image processing apparatus having an imaging unit that captures an infrared light image around the vehicle and outputs an infrared light image signal,
Based on the infrared light image signal, the first region in which the first object is imaged is recognized in the infrared light image, and the first region in the infrared light image relating to the first region is recognized. Output location information,
Based on the first position information, the second luminance of the second region having a luminance lower than the first luminance of the first region in the infrared light image is set to the first luminance. An image processing method characterized by adjusting based on the above.
JP2018096893A 2018-05-21 2018-05-21 Image processing apparatus and image processing method Pending JP2019204988A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018096893A JP2019204988A (en) 2018-05-21 2018-05-21 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018096893A JP2019204988A (en) 2018-05-21 2018-05-21 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2019204988A true JP2019204988A (en) 2019-11-28

Family

ID=68727395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018096893A Pending JP2019204988A (en) 2018-05-21 2018-05-21 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2019204988A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021118175A1 (en) 2020-07-20 2022-01-20 Toyota Jidosha Kabushiki Kaisha Environment detection device for a vehicle
CN114612571A (en) * 2022-03-07 2022-06-10 重庆紫光华山智安科技有限公司 White balance calibration parameter generation method, image correction method, white balance calibration parameter generation system, image correction device and medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008139565A1 (en) * 2007-05-07 2008-11-20 Fujitsu Limited Night vision device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008139565A1 (en) * 2007-05-07 2008-11-20 Fujitsu Limited Night vision device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021118175A1 (en) 2020-07-20 2022-01-20 Toyota Jidosha Kabushiki Kaisha Environment detection device for a vehicle
CN114612571A (en) * 2022-03-07 2022-06-10 重庆紫光华山智安科技有限公司 White balance calibration parameter generation method, image correction method, white balance calibration parameter generation system, image correction device and medium

Similar Documents

Publication Publication Date Title
JP5437855B2 (en) Obstacle detection device, obstacle detection system including the same, and obstacle detection method
JP5071198B2 (en) Signal recognition device, signal recognition method, and signal recognition program
KR101367637B1 (en) Monitoring apparatus
JP5435307B2 (en) In-vehicle camera device
JP5783279B2 (en) Image processing device
JP4659906B2 (en) Night vision device
JP2010272067A (en) Image processing apparatus
JP2009171122A (en) Optical source color temperature estimation method, white balance adjustment apparatus, and image recognition apparatus
JP6428391B2 (en) Imaging device
JP2013005234A5 (en)
JP6701253B2 (en) Exterior environment recognition device
JP2010073009A (en) Image processing apparatus
JP6740866B2 (en) Image output device
JP2017011634A (en) Imaging device, control method for the same and program
JP4798945B2 (en) Imaging device
JP2019204988A (en) Image processing apparatus and image processing method
JP4556777B2 (en) Night driving visibility support device
JP5256060B2 (en) Imaging device
US20230326177A1 (en) Image processing apparatus
JP5427744B2 (en) Image processing device
JP5152002B2 (en) Lane recognition device and lane recognition method
JP2008230464A (en) Automatic exposure device for on-vehicle camera
JP2020101624A (en) Imaging apparatus, electronic apparatus, and control method and program of imaging apparatus
JP6322723B2 (en) Imaging apparatus and vehicle
JP6525723B2 (en) Imaging device, control method therefor, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220316

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220913